算法推荐为何令人失望?_算法设计

算法推荐为何令人失望?_数据_02

帮助我们做出最佳决策的算法——指的是将我们与最佳创意、体验、工作、人员和产品联系起来的算法——应该丰富我们的生活。但是,有些算法——比如一些管理社交媒体推荐、分配医疗保健资源和为汽车保险定价的算法——却未能兑现这一承诺。而一些为政府和非营利组织建立的算法,以及由政府和非营利组织建立的算法——例如用于预测犯罪活动和为大学入学考试评分的算法——也没有达到预期的目标。

算法的表现令人失望的核心原因是,辅助和替代人类决策的现代算法(如推荐系统)是建立在用户行为的心理建模之上的。我和同事们发表在《自然·人类行为》杂志(Nature Human Behavior)上的新论文指出,算法的学习对象——即我们的行为——是根本性的制约因素。算法依靠我们的点击、浏览、购买和其他数字足迹来推断我们的偏好。这种“显性偏好”(revealed preferences)可以让算法识别出一些我们不自知的偏好,比如一场黑山之旅、一次在Le Bernardin餐厅的晚餐,或者一部关于西好莱坞一家餐厅的真人秀节目。不过,相较于构成用户真实目标和价值观的“规范偏好”(normative preferences),显性偏好并不能展示用户偏好的全貌,有时还会产生误导。

算法推荐为何令人失望?_算法设计_03

[ 社会规范与现状 ]

在亚马逊、YouTube和脸书等平台上,算法会引导我们看到(和购买)与我们相似的人会看到(和购买)的东西。我们依靠推荐系统和榜单(如畅销书)在平台的大目录中选择内容。推荐系统帮助我们找到自己喜欢的东西,但同时也改变了我们的偏好,减少了我们所看到和购买的东西的多样性,增加了一些时下市场中流行的选择。如果没有大量的工程设计,推荐系统就会到处推荐《哈利·波特》,不管是对相关用户(例如,对观看《指环王》的用户)还是对不相关的用户[例如,对购买《掌握法国烹饪的艺术》(Mastering the Art of French Cooking)的用户]。

算法推荐为何令人失望?_推荐系统_04

当人们做出选择时,鼠标的移动轨迹可以揭示这些选择之间相互冲突的偏好。分析鼠标轨迹的鼠标跟踪技术可以揭示出“想要”和“应该”之间的冲突,而单纯的“选择结果”数据会忽略这些冲突。当然,完全按照“应该”来调整算法可能会扼杀用户的需求,但在“想要”和“应该”之间找到更好的平衡点,对企业和用户都有好处。

用不同的用户数据训练算法。通常,我们是在数据集的一部分或一叠数据上训练算法,然后用保留样本的其他数据进行验证。算法设计者可以有选择性地使用某种用户数据训练算法,比如一些表现出更慎重选择和更好决策的用户,从而让算法报告出理想的结果(如减少孤独感、提高幸福感或满意度等)。设计师可以对需要花更多时间考虑才能做出选择的用户进行算法训练。例如,设计师可以针对安全驾驶员训练自动驾驶汽车,而不是针对所有人。设计者可以针对最幸福、对体验最满意、或与可信来源内容互动最多的社交媒体用户训练算法。如果这些用户不存在,设计者可以模拟这样的用户的行为,来反映用户的规范偏好,并用模拟出来的数据来训练算法。

减少算法对行为的依赖,让其更直接地依赖既定偏好。在算法循环的设计中融入人类,对机器学习的许多实际应用都大有裨益。设计师可以通过调查和访谈征求用户的偏好,并将其与数据得出的用户行为偏好相融合,将这个衡量标准纳入算法设计优化的目标中。如果我们让Netflix播放新的科学纪录片,那么它的算法就不应该只推荐我们观看过的情景喜剧和动作片。用户通常能判断出,算法何时会让他们失望,这种明确的反馈能改进算法推荐。为了了解用户希望平台如何管理虚拟现实中的私人空间,防止欺凌和骚扰,Meta与研究人员合作,对来自32个国家的受访者进行了民意调查研究。

现在是公司、政府和科学家投资于算法设计行为科学的时候了。设计者无法通过编码摆脱人类心理。算法设计应该超越显性偏好,它应该反映出我们渴望成为什么样的人,而不仅仅是我们过去的样子。

算法推荐为何令人失望?_数据_05