用户觉得推文照片中的预览是"偏颇的”,Twitter回应

2020-09-21 09:17   来源: 互联网

为了改善用户体验,Twitter 长期以来一直试图用算法自动裁剪照片,以便由此产生的预览照片能够呈现出整个图片中最有趣的部分。


然而,最近 Twitter 正在调查为什么它的照片预览看起来更喜欢白色的面孔而不是黑色的。用户发现剪裁照片预览的算法存在问题。


几个 Twitter 用户在上周末展示了这一现象,并发布了黑白脸帖子的例子。Twitter 的预览显示,白色面孔出现的频率更高。


例如,当巴拉克·奥巴马和米切尔·麦康奈尔的照片附在推特上时,Twitter 似乎特别突出了麦康奈尔的脸。


用户发现推特照片预览 "是" 偏颇的," 和 Twitter 的回应


事实上,当 Twitter 首次使用该算法自动切割照片预览时,相关的机器学习研究人员在博客中解释说,面部识别是切割图像的过程,但没有详细说明图像中的人脸生成。

用户发现推文照片预览有“偏见”,Twitter回应

在过去,我们用面部识别来关注我们能找到的最突出的面孔。虽然这种启发式方法是合理的,但并不是所有的图像都有人脸,因此该方法具有明显的局限性。此外,我们的面部识别系统经常省略,有时甚至在没有脸的时候错误地检测人脸。


Twitter 首席设计官丹特利·戴维斯(DantleyDavis) 在 Twitter 上发推文称,该公司正在努力改进该算法,并在图像生成方面进行实验:


虽然这个测试不是一门科学,但它只是一个例子,但它指出了一些我们下一步需要研究的变量。现在两个人都有相同的西装,但他们的手都被遮住了。

用户发现推文照片预览有“偏见”,Twitter回应

Twitter 团队的利兹·凯利(LizKelley) 周日表示,该公司已经测试了这个问题,但没有发现种族或性别偏见的证据。"显然,我们还有很多工作要做。" 我们将开源这项工作,以便其他人能够审查和复制它。


Twitter 首席技术官 ParagAgrawal 说,算法模型仍然需要 "不断改进" 和 "从实验中学习"。


显然,为了真正评估模型是否有偏见,研究人员需要使用大量的例子和样本来研究各种情况。


然而,Twitter 工程师泽汉王(ZehanWang) 指出,该算法在 2017 年部署之前就发现了偏差,但没有达到 "显著的" 水平。


2018 年,Twitter 发布了一篇博客,解释了该算法如何影响照片预览的产生。该算法选择某种图像的原因之一是其明显的对比,这可以解释为什么该算法似乎更喜欢白脸。




责任编辑:萤莹香草钟
分享到:
0
【慎重声明】凡本站未注明来源为"中国财经导报"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。如因作品内容、版权和其他问题需要同本网联系的,请在30日内进行!