全文共3149字,预计学习时长8分钟

打开网易新闻 查看精彩图片

图源:unsplash

设计者必须了解设计材料的方方面面。从前,这意味着要了解木材、金属、印刷机,甚至是像素的细微特性。如今的数字设计者必须了解一种更无形的材料:算法。

算法曾经是一组相对简单的规则,应用程序遵循这些规则来完成任务,比如显示关注的人的帖子。现在,随着人工智能的发展,算法已经升级成了无比复杂的分形过程,往往超出了人类的理解能力。

算法驱动着我们大部分的日常生活,但目前大部分讨论都集中在这些“机器人”是否会取代人类。让我们抛开这些,来讨论设计者如何通过重构设计决策来更好地协助工程设计师,以最大限度发挥算法性能。

打开网易新闻 查看精彩图片

图源:Maximillian Piras

打开网易新闻 查看精彩图片

算法必备

数字产品显示的大部分内容都是由算法负责的,如社群摘要feed、购物车建议、电子邮件草稿的常用语推荐。算法在我们想要的时候向我们展示想要的东西,就像一个热情的助手或店员,以此来获得成功。

自称为“人文主义技术专家”的John Maeda在他的新书中解释了他们的目标,他将其比作日本的“omotenashi(无微不至)”的待客之道,即无需询问就能预见客户想要什么。然而,算法并不是单打独斗,它们必须配以精心设计的界面才能见效。

目的与过程

大多数算法仅负责自动检测数据模式并随后做出相关推荐。这个过程将特定的数据集与分析维度配对,以创建所谓的模型。然后通过不断输入更多的数据来训练模型,从而实现理论上的改进。输出经常用于个性化一个产品,即定制每个用户的体验。

UX Collective的Fabricio Teixeira表示:“加强用户体验的个性化通常意味着用户的关联更强,这会带来更好的转化率。”

这就解释了为什么“数据就是新黄金(data is the new gold)”。但是,大多数公司的价值观中主张的独创性则意味着很少有强大稳定的公共数据集可以随时有效地训练模型。

打开网易新闻 查看精彩图片

算法反馈循环(图源:Maximillian Piras)

反馈循环与信号

为了训练新的模型,许多公司必须像ouroboros一样,让他们的产品不断收集数据,同时利用结果来自我改进。在这个反馈循环中,相关的用户交互追踪为数据信号,从按键到手势,甚至没有动作,都算作是用户交互。

John Maeda表示:“如果你在某个图像上停留的时间比其它图片更长,意味着你对它很感兴趣。或者,如果你已经开始输入某项内容,然后改变主意,没有输入完整的字段,则意味着你犹豫了。”

好的界面设计很直观,同时将信号从噪声中分离。

打开网易新闻 查看精彩图片

算法友好设计

Eugene Wei是亚马逊、Hulu和Oculus的前产品负责人,他创造了“算法友好设计”一词,来描述极有利于训练模型的界面:“如果算法将成为应用程序的关键功能之一,那么该如何设计一款让算法能够各取所需的应用程序呢?”

这就解释了为什么会有无数关注用户反应的界面,比如Reddit的downvoting或Tinder的card swiping,单独来看它们似乎没有意义,但对算法来说却非常有价值。

TikTok的创新界面

人工智能正在按照黄氏定律飞速发展,出现了界面更友好的设计解决方案,以增强提供算法可见性的范式。今天最神秘的算法就是TikTok的算法,利用其界面快速解锁用户数据库,以获得竞争力极高的内容推荐。出人意料的是,它却犯了设计的一大忌:增加摩擦。

打开网易新闻 查看精彩图片

算法可见性比较(图源:Maximillian Piras)

TikTok设计为一次只显示一个全屏视频,清晰地将所有信号定位于内容的接收方式。对比一下Instagram feed内容的眼花缭乱,很容易看出两者在收集好的数据能力上的差异,这便解释了为何Instagram推出了Reels这一功能。

在大多数允许用户以不同速度滑过的feeds中,用户可以瞬间跳过大量内容,而算法无从得知原因。这就使分析变得复杂起来:

· 这些内容是否滚动过快而无法注册?

· 预览只是框架中的一部分吗?

· 上面或下面有没有让人分心的内容?

限制滚动界面使其高效地解释了用户情绪。这个解决方案的真正美妙之处在于它的“无形的”投票按钮,即当滑动动作加上没有积极交互的动作时,它可以清楚地算作一个消极信号。

以摩擦消除摩擦

虽然这种设计最初会增加摩擦,但随着时间的推移,情况就会相反。个性化的改良最终减少了所需的重复操作,这是因为好的数据的复利。

从这个角度来看,传统的方法看起来要麻烦得多,就像Wei所举的推特的例子:“如果算法可以更智能地识别用户的兴趣,那么它就应该为用户屏蔽某些话题或人物,而无需用户自己操作。”

好的初始流程设计可以很容易地最大限度减少对前期摩擦的感知,直到个性化阈值开始生效。

打开网易新闻 查看精彩图片

算法观察者效应

就像纪录片《监视资本主义:智能陷阱》一样,许多人越来越怀疑应用程序在滥用数据和操纵行为。意识到算法的监视正在改变用户的参与度,有些人可能会犹豫是否要点击某些按钮,担心他们的信号会被滥用,而有些人可能会多此一举来“混淆”多管闲事的算法。

如果用户不信任产品,那么产品就不能信任它的数据。

如何引入算法

负责在PowerPoint中构建AI的微软团队接受了Fast Company前产品创新总监Cliff Kuang的访谈。期间,他们分享了一个重要的认识:“除非人类感受到了与机器的某种联系,否则一旦它犯了错,就会永远被人类淘汰。”

将完全自主的虚拟助手与其他提供独立建议之前先预判初始方向的虚拟助手进行比较,之后提出了这个见解。事实证明,用户信任自己帮助训练的算法,这很有意义,因为我们的评估往往是主观的,且最初的建议缺乏用户偏好来作为基础。

让人来指导最初的决策,满足了我们的情感需求,同时也给了模型足够的时间来自我训练。

打开网易新闻 查看精彩图片

透明度策略

a16z Podcast上,Wei重点介绍了TikTok的决策,即通过在标签中添加浏览次数,利用内容的挑战性,将算法权重公之于众。这激励了那些希望获得更多浏览量的创作者,他们想由此迎合正在完善的服务。

这种行为曾经被称为“游戏化”一种算法,但这种策略的成功与这个负面的词汇恰恰相反。如果用户愿意本着共同的目标补充数据集的不足,则应该称之为协作。

推特的CEO已经 有了类似的想法,Jack Dorsey表示:“人们可以选择第三方创建的算法来对内容进行排名和过滤,这想法多么振奋人心,并且即将唾手可及。”

如果黑匣子算法能提供滤气泡,也许算法的透明度就能进行突破。

算法仍然需要人类

Spotify首席研发官Gustav Söderström与Lex Fridman就设定用户对歌曲推荐的期望进行了交流。用户在使用“发现模式”时(即大胆地接受并不完全可靠的推荐内容),Spotify将通过机器学习进行推荐。

但即使没有出错,它们仍然依赖于人类管理者,因为人的能力优于算法:“与我们的算法相比,人类的智慧无与伦比。他们可以考虑文化因素等等。问题是,他们无法为每一个登录的用户每小时做出2亿个决策。”

为了深入这一领域,他们开发了一种叫做“algotorial”的共生关系,即算法跟随人类的指引,听起来很熟悉吗?这有力地说明了人类的介入是不可或缺的,因为设计者意识到,在算法能够自行掌握主动权之前,由人工来帮助算法成功依旧是目前工作的一部分。

打开网易新闻 查看精彩图片