当前位置: 首页 > 科技赋能

八卦AI能知道你是直的还是弯的吗

时间:2024-05-22 11:38:03 科技赋能

八卦似乎一直是人类茶余饭后永恒的话题。

如何判断一个人与另一个人之间的关系?例如,他们是好朋友还是同性恋朋友?然而,人工智能已经能够准确识别所有这些私人问题,这确实引起了一波恐慌。

就在本周,斯坦福大学的两名研究人员开发了一种神经网络,可以通过研究面部图像来检测一个人的性取向。

研究人员在超过 35 张面部图像上训练神经网络,其中同性恋面孔和异性恋面孔各占一半。

该算法跟踪遗传或激素相关特征。

这项研究的关键是影响性取向的产前激素理论(PHT)。

具体来说,该理论指出,在子宫内,雄性激素主要负责性别分化,也是晚年同性恋取向的主要驱动力。

研究还表明,这些特定的雄性激素在一定程度上影响面部的关键特征,这意味着某些面部特征可能与性取向有关。

研究发现,男同性恋者和女同性恋者往往具有“非典型性别特征”,这意味着男同性恋者往往更女性化,女同性恋者往往更女性化。

此外,研究人员发现,男同性恋者往往比直男拥有更窄的下巴、更长的鼻子和更大的额头,而女同性恋者往往有更大的下巴和更小的额头。

图片来源:TechCrunch 随机选择了一对图像,一名男同性恋者和一名异性恋者,机器以 80% 的准确度挑选了对象的性取向。

与同一个人的五幅图像进行比较时,准确率高达 91%。

然而,对于女性来说,预测准确率相对较低,一张图像的准确率达到 71%,五张图像的预测准确率上升到 83%。

这一切都让人感到害怕。

AI对人类性取向的识别无疑涉及隐私,这确实很可怕。

还有一个问题是,存储在社交网络和政府数据库中的数十亿公共数据可能会在未经人们同意的情况下被用来识别人们的性取向。

除了识别性取向之外,还可以识别人与人之间的关系。

然而,这种类型的研究仍在继续。

中山大学的一个团队可以通过数据集识别人与人之间的关系。

比如是这样的: 或者是这样的: 而这一切都是基于研究人员训练的图推理模型(GRM),结合门控图神经网络(GGNN)进行社会分析。

关系已处理。

基于此,AI可以识别图片中三人之间的关系,根据图片上人物区域的特征初始化关系节点,然后使用预先训练的Faster-RCNN检测器搜索图像中的语义对象。

图像,提取其特征,并初始化对应的物体节点;通过图传播节点消息,以充分探索人类与上下文对象的交互,并采用图注意机制来自适应地选择信息最丰富的节点,以通过测量每个对象节点的重要性来促进识别。

但在实际表现中,AI识别却不尽如人意。

例如,警方在欧冠决赛中使用AI人脸识别来匹配潜在的犯罪图像,错误率高达92%。

其在人物关系、性取向识别等领域的应用表现也并不出色。

性取向被承认后,AI伦理的界限在哪里? 《纽约客》有一个封面是这样的:机器人成了地球的主角,人类只能蹲在地上接受机器人的施舍。

每一项新技术都会引起大家的担忧,但在过去更多的是人类体力的延伸。

如果是脑力和人类隐私的延伸,这种担忧会更加严重。

智能相对论分析师柯明认为,AI在性取向识别之前还需要解决几大伦理问题。

1. 仅依靠面部识别太草率了《人格与社会心理学》该杂志曾评论斯坦福大学的这项研究,指出深度神经网络在从图像中检测性取向判断方面比人类更准确。

该研究涉及建立一个计算机模型来识别研究人员所说的同性恋者的“非典型”特征。

研究人员在摘要中写道,“我们认为,人们的面部特征包含更多人脑无法判断的性取向特征。

基于一张图片,系统(分类器)可以以 81% 的准确度区分男同性恋”区分女同性恋的率为74%,高于人脑所能完成的判断准确率。

”然而,在远距离应用过程中,仅靠面部结构识别似乎并没有那么“可靠”。

技术无法识别人的性别。

所谓的未来技术只会识别互联网上同性恋者相似头像的某些模式,而且这项研究的一个问题是,研究机制是选择机器认为的两张图片中的一张。

“更有可能是同性恋。

”这个对比判断其实是根据50%的随机概率计算出来的,所以和单纯分析一张图片有很大的不同,这其实提出了一个问题,真实的人类识别、评价到底有多准确。

这种非此即彼的识别方法的标准仍然需要在许多地方进行讨论。

2.算法歧视仍然是一个“大问题”。

算法歧视一直是人工智能应用中的一大难题。

以搜索为例。

如果你在谷歌上搜索“CEO”,搜索结果中没有人是女性,也没有人是亚洲人。

,这是一个潜在的偏差。

显然,人工智能并不是真正纯粹的“人工”。

机器学习和人类学习一样,从文化中提取和吸收社会结构的常态,因此它也会重建、扩展和延续我们人类为它们设定的路径,而这些路径将永远反映现有的社会常态。

无论是根据脸来判断一个人是否诚实,还是判断他的性取向,这些算法都是基于社会原有的生物本质主义(biological Essentialism),即相信人的性取向等本质植根于理论的理论。

人类的身体。

毕竟,人工智能工具可以通过数据积累和算法模型从照片中确定一个人的性取向。

该系统的准确率高达91%。

由此带来的性取向偏见不容小觑。

今年年初,巴斯大学和普林斯顿大学的计算机科学家使用类似于 IAT(隐式关联测试)的关联测试来检测算法的潜在倾向,结果发现即使是算法也会对种族和性别产生偏见。

即使是谷歌翻译也无法摆脱偏见。

该算法“发现”并“学习”社会建立的偏见。

当某些名词在特定的语言环境下本来是中性的,如果上下文有特定的形容词(中性),就会把中性词翻译成“他”或“她”。

如今的人工智能基本上仅限于完成指定的任务,有时很多实际应用并不是非此即彼。

在很多选择中,人类的选择仍然存在道德困境。

如果把决策权交给算法,就会遭到批评。

这一点是不言而喻的。

3.使用数据时,掌握“温度”是关键。

如果说放任人工智能疯狂生长是为了解决人们工作效率的问题,那么随着人工智能逐渐落地各行业,“体面”逐渐取代效率,成为人工智能应用的关键词。

当然,如果企业能够全面保护用户隐私,这既存在技术难度,又缺乏一定的商业驱动力。

因此,当前,平衡好两者的关系是关键。

事实上,欧洲国家在遏制巨头破坏用户隐私方面已经走了很长一段路。

这体现在他们多年来针对Facebook、谷歌等巨头的集体诉讼案件中:2018年8月,Facebook在欧洲被6万人起诉。

一位奥地利隐私活动人士对 Facebook 的欧洲子公司发起了大规模集体诉讼,指控 Facebook 违反了欧洲数据保护法。

FB因其参与美国国家安全局收集公共信息的“棱镜”项目而受到质疑。

有关互联网使用的个人数据。

今年1月初,德国一家政府数据保护机构周三表示,已对Facebook采取法律行动,指控Facebook非法读取和保存不使用该社交网站的用户的个人信息。

德国汉堡数据保护办公室专员表示,Facebook可能会被处以数万欧元的罚款,因为它收集和存储未经许可不使用该社交网站的用户的个人信息。

显然,用户目前对自身数据的保护意识越来越强,在继续保护自身数据的同时,也在加强隐私防范。

毕竟AI识别性取向目前还只是研究阶段,还没有商业化产品。

而且,从网站中提取图片并不是一项技术任务。

让机器做选择题的理念与十多年前哈佛大学一位宅男创建的校园选美网站非常相似。

你自己就能知道它的味道。

智能相对论:深挖人工智能的井,判断咸不咸,说出对错,说出深浅。