人工智能有两个明显的目标,就当下而言,这两个目标并不相互排斥,但从长远来看,只有其中一个才能造福于人类。这些目标要么增加人们的工作,要么取代他们。最近有两个故事引起了我的注意,这表明我们可能需要调整我们认为的道德行为才能正确利用人工智能。第一个故事是关于一位艺术家使用AI创作艺术以不公平的方式赢得艺术比赛,而另一个故事是关于使用AI让学生更快地写出更好的论文。后者目前与作弊有关。两者都像我过去听到的关于学校如何禁止使用计算器和PC的论点,因为它们避免了学习乘法表或在图书馆而不是在维基百科上进行初步研究的需要,即使技能随着时间的推移而发展,使用这两种方法对作为雇员的学生来说都比旧的做事方式更有价值。简而言之,我们最终要弄清楚的是,使用AI更快地创造更好的产品是否被视为作弊,还是只是一种谨慎的做法?人工智能的重大伦理问题我们没有讨论过的关于人工智能的事情是,创造替代人类的人工智能可能比创造增强人类的人工智能容易得多。第一种方法只需要专注于复制这个人所做的事情,创建他们的数字双胞胎,并且已经有公司在这样做。更简单的是,你不需要与缺乏共同语言、共同技能、共同兴趣甚至共同体型的人类接触。我们甚至还没有培训人们如何使用对话式AI。如前所述,我们更倾向于惩罚那些有效使用工具的人,而不是奖励他们的技能。这意味着使用AI最有效的路径不是增强路径,而是替代路径,因为仅在其参数范围内运行的AI并不令人反感,但是用于显着增强用户的AI,尤其是在竞争中,会让人皱眉在考虑作弊。这种对更换的关注在自动驾驶汽车中尤为明显。对于自动驾驶汽车,当前的默认技术是驾驶员增强技术,丰田称之为守护天使。但在测试中,英特尔发现让人类驾驶员控制自动驾驶汽车会增加驾驶员的压力,因为他们不知道自己是否会突然被要求驾驶汽车。如果汽车不提供人类驾驶员选项,未经训练的驾驶员会感觉更舒服,这表明从长远来看,不允许或增加人类驾驶员的自动驾驶汽车将比那些允许或增加人类驾驶员的自动驾驶汽车表现更好。流行和成功。事实上,虽然行业和像IBM这样的公司正在积极推动AI作为人类增强工具,但市场对待这项技术的方式(因为它不专注于为AI界面和舒适度训练更好的人类)正在成为AI作为人类替代产品的强制功能,随着劳动力资源随后崩溃,这会成为问题。人类得到人工智能的帮助重要吗?艺术家或作家与比他们更有能力的人合作创作一件艺术品、一篇论文,甚至一本书,这并不罕见。此外,有人在影子作家的许可下以影子作家的名义创作一本书的情况并不少见。如果使用AI代替老师/导师/合作者/合作伙伴/代笔会不会更糟?或者,由于AI可能比另一个人更好地独立反映用户的意愿,技术的使用是否会更好地连接工作和用户,并且因为用户不将他人的工作视为自己的工作而更不道德?妥协?总结:重新思考AI伦理企业只想要高质量的工作,如果他们能够从机器(AI)中获得比人类更高的质量,他们就会做出并且已经做出了不那么困难的选择。想想过去几十年自动化制造和仓库的过程。我们需要培训人们如何使用人工智能以及如何接受最有效利用人工智能资源的工作产品,同时确保我们能够防止知识产权盗窃和剽窃。如果我们不这样做,随着时间的推移,AI趋势很可能会继续从关注人类辅助转向人类替代,从而损害行业或越来越多可以更好地利用人工智能智能的职业.
