当前位置: 首页 > 科技赋能

八大现象证明人工智能威胁论真实存在!

时间:2024-05-22 14:29:48 科技赋能

如今,人工智能发展蓬勃,机器学习日趋成熟,智能未来似乎指日可待。

表面上,一切似乎都按计划进行,但背后也暴露出不少问题。

就像最近引发很多热议的人工智能威胁论一样,其根本原因在于人工智能能否有意识地违背人类意愿控制事务的问题。

那么,我们或许想问:AI机器人到底有多强大?机器人真的会“回归”人类吗? 《终结者》中的天网真的会在现实生活中发生吗?强人工智能和弱人工智能 首先我们要区分两个概念:强人工智能和弱人工智能。

强人工智能是指能够思考和感知自身存在的假想机器。

它不仅可以解决人类为其定制的任务,还可以学习新事物。

弱人工智能如今非常普遍。

它是用来解决特定问题的应用,比如图像识别、汽车驾驶、下围棋等,也就是我们常说的“机器学习”。

目前,我们无法预测强人工智能何时能够真正开发出来。

专家经过研究推导出来的结果也是“一日”。

与强人工智能相比,弱人工智能已经存在。

弱人工智能在很多领域随处可见,而且其应用范围每年都在扩大。

通过实例学习,机器学习几乎可以让我们无需编程就能处理现实世界的任务。

人工智能威胁论真的存在吗?我们通过建立数学模型(“学习”算法)来教机器人解决特定问题。

机器人会按照我们规划的模型方法来执行任务,这意味着机器学习的所有行为都是基于我们的控制。

我们似乎不用担心电影《天网》。

但如果我们如此天真,那就错了,因为机器学习仍然可以违背人类的意愿执行错误的任务。

1. 不良意图 如果我们教一支无人机军队使用机器学习来杀人,结果是否符合道德行为标准?基于这个话题,也引起了轩然大波。

2016年,谷歌正在开发一款名为Maven的软件,用于军事项目。

该项目涉及无人机和未来完全自主武器系统的创建。

结果,12名谷歌员工辞职以示抗议,另一名员工签署请愿书,要求公司放弃与军方的合同。

与此同时,多位人工智能和伦理学领域的顶尖科学家向谷歌写了一封公开信,要求该公司放弃该项目并支持禁止自主武器的国际协议。

2. 开发者偏见 即使机器学习算法开发者没有恶意,但他们中的许多人仍然看重金钱,他们的最终目标是赚钱。

也就是说,他们创建的算法是为了让自己受益,而不是为了社会。

例如,一些医疗算法推荐昂贵的治疗方法,但很少推荐最好的患者治疗方法。

现实生活中算法的伦理问题似乎没有得到太多体现。

例如,交通速度和车祸死亡人数之间可能需要权衡。

我们可以将自动驾驶汽车的最高时速限制在每小时 15 英里以下,这将使车祸死亡人数几乎为零,但这会失去汽车的其他优势。

3.违反逻辑规范?? 默认情况下,计算机系统对逻辑规范一无所知。

一种算法可以使国家预算与“最大化 GDP/劳动生产率/预期寿命”的目标保持一致,但如果没有将约束编程到模型中,它可能会消除学校、庇护所和环境的预算,因为它们不会直接增加 GDP。

为了一个目标,我们可以让机器学习执行任何复杂的任务,但前提是要纳入相关的逻辑规范。

4.改变人类偏好机器学习给我们的生活带来了很多便利,但它也在改变我们的日常生活甚至个人行为偏好。

比如智能电影推荐,机器学习会根据你对电影的评分,将你的喜好与其他用户进行比较,然后向你推荐电影。

从长远来看,你的喜好会被电影推荐系统改变,你的兴趣也会被缩小。

但可怕的是我们没有意识到这种变化,我们没有意识到计算机对我们的控制。

5. 错误相关 当完全独立的事物的行为非常相似时,就会出现错误相关,从而产生它们之间存在某种联系的错觉。

例如,您是否认为美国的人造黄油消费量与缅甸州的离婚率密切相关?我想任何有知识的人都不会认为这两者有联系。

但数学模型不具备这样的经验知识。

它只是一个学习和数据泛化的工具。

在其逻辑体系中,这样相似的曲线变化表明两者之间必然存在某种联系。

6.反馈环路 反馈环路的影响比误差相关性更大。

反馈循环是指算法的决策影响现实,从而使算法相信其结论是正确的。

例如,加利福尼亚州的一项犯罪预防计划建议警方应根据当地案件数量确定犯罪率,然后相应地派遣警员。

但最终会陷入这样一个循环:随着一个街区警察数量的增加,当地居民报警的次数就会增加,从而增加犯罪率。

根据预防犯罪计划,将派遣更多警力。

随着警察人数的增加,举报犯罪的人数也会增加。

它会再次增加,举报率会增加,警察数量会增加...... 7.“被污染”的参考数据 算法学习的结果很大程度上取决于参考数据,参考数据构成了学习的基础。

然而,数据很可能因为一些偶然情况或个人意图而被扭曲,即数据被“污染”。

一个典型的例子是微软在2016年推出的聊天机器人Tay。

微软将这款机器人视为“对话理解”方面的实验。

微软表示,你与 Tay 聊天越多,它就会变得越聪明。

然而,微软的聊天实验只持续了24小时,不得不停止,因为无辜的聊天机器人在24小时内被教授了大量种族主义和性别歧视术语。

Tay的案件给机器学习研发工作敲响了警钟,也体现了数据“污染”的严重性。

8.即使机器欺骗是功能和数据都很好的机型,但其工作原理的泄露也会让不法分子有机可乘。

例如,一组研究人员开发了一种特殊的眼镜,可以欺骗面部识别算法,在图像中引入最小的失真,从而改变面部识别结果。

怎么解决呢? 2016年,奥巴马政府的大数据工作组发布了一份报告,警告“自动化决策中存在编码歧视的可能性”。

该报告还呼吁创建遵循平等原则的算法。

但全面落实该报告是困难的。

首先,机器学习数学模型难以测试和修复。

因为在机器学习中,一切都取决于学习样本的大小,而样本的数量是有限的。

举一个经典的例子:早在2000年,软件工程师Jacky Alciné就指出Google Photos中的图像识别算法将他的黑人朋友归类为“大猩猩”。

谷歌对这个错误感到震惊,并向阿尔辛内道歉,并承诺修复它。

然而三年后,谷歌没有比禁止在图像标签中使用“大猩猩”和类似词语更好的解决方案。

其次,机器学习算法的决策难以理解和解释。

神经网络在其内部排列加权系数以获得答案。

但过程是怎样的呢?错误答案如何纠正?举两个例子:2018 年的一项研究表明,男性比女性更有可能查看谷歌高薪职位广告。

亚马逊的免费当日送货服务不适用于非裔美国人社区(黑人社区)。

在这两种情况下,两家公司均表示无法解释算法决策。

基于这些算法决策,任何人类应用程序都不应受到指责。

因此,我们需要为机器人制定一套法律法规来规定其行为决策。

今年5月,德国人迈出了第一步,发布了全球首个自动驾驶汽车指南。

其部分内容是:与一切财产相比,人的生命是至高无上的。

不可避免的事故不能受到歧视或有任何区别因素。

如果自动驾驶造成的事故比人类驾驶少,那么自动驾驶系统将成为道义上的当务之急。

很明显,机器学习在管理个人任务方面确实比人类更好,导致我们越来越依赖机器学习。

因此,记住这些机器学习缺陷就显得尤为重要。

开发者应该在开发阶段测试所有可能出现的问题,并为算法设置监控措施。