当前位置: 首页 > 网络应用技术

如何防止人工智能失控(2023年的最新答案)

时间:2023-03-08 18:07:42 网络应用技术

  简介:今天,首席CTO注释要与您分享如何防止人工智能失控的计算机。如果您可以解决您现在面临的问题,请不要忘记注意此网站。让我们现在开始!

  为什么担心人工智能控制人类是新时代的世界担忧,答案很简单,因为人工智能没有控制人类的动力。没有取代串谋争取权力,因为他是忠实的部长,没有反叛的动力,同样的原因是,即使人工智能的智慧在将来超越人类,您也没有动力控制人类,为什么?因为人工智能(计算机,机器人,智能硬件等)是非生命物质,没有动力,没有可以具有诸如情感和欲望之类的高生活物质的心理元素情报控制人类,纯粹是胡说八道。

  当今的机器人可以模仿人类的许多表达,但其表达是错误的,而不是真实的表达。就像您看到微笑的微笑一样。您不能说这个石头雕像有一个表情,因为它的表情是错误的。许多人看着好莱坞的人工智能大片,他们担心电影中的机器人将来会成为现实。这是非常荒谬的,因为这部电影是为票房做的。无论如何,这不是非法的,但俗话是好的。谣言停在明智的情况下。我希望每个人都可以成为一个明智的人。不容易相信一些谣言,例如“控制人类的人工智能”!

  未来将有两种类型的人工智能。一种是低级人工智能,例如智能硬件,机器人,另一个是高端人工智能,是超级人类计算机。它将具有很高的智力,但只有思考的能力。没有行动和执行能力,只能由人类控制。机器人具有强大的移动能力,但是人类不会赋予它高度的智慧,而只会使其执行。然后控制机器人。通过这种方式,三个之间的控制关系是人类 - 苏人 - 人类计算机 - 机器人,前者控制后者,最终控制权在于人类,因此不会有人工智能来控制人类的人。失控和对人类的伤害,因为人类将来将更加聪明,能够控制机器人。他们可以通过超级人类计算机牢固地控制机器人。

  将来,超级人类计算机会比爱因斯坦和爱迪生更明智,并且将更多地代替人类大脑的思维和创造,但是人类的大脑不会因此而衰落,因为人类大脑可以从事其他思维工作,这样因为,从事某些人,从事某些人,参与某些,一些参与,参与某些人,参与某些人,参与某些,某些人,参与某些,参与某些,参与某些人,参与其中,参与某些人,参与某些人参与其中,参与一些智能竞争,思维培训,文学和艺术创作等,但更重要的是,在心理思维和研究中。计算机可以是“外部知识和智力”(智力和内部情报智能的外在知识是反思心理学的概念。智力的功能是分析和控制外部世界。智能内部的功能是分析和控制内部心理世界)超越人的大脑,但不会具有“内部智力”,并且不会以智力的方式超越人类的大脑。简而言之,无需担心人脑的智慧将来会下降。这就像一台机器取代了人们的体力劳动,但是人们可以通过体育锻炼和其他活动来维持和改善自己的身体健康。

  将来,人类的作用将是刘贝伊。超级人类计算机的作用是Zhuge Liang。机器人的角色是关,张和赵元。这三个彼此合作以创造一个伟大的事业,而主要的角色和控制是人类。

  人工智能是人类必须采取的象棋。这个步骤是顺利进行。可以解决疾病,死亡,自然灾害和资源短缺。

  当然,人工智能无法控制,并且消除人类最终抢走了人类的可能性。此外,发生的可能性可能远远超出了许多人的想象。在科学道路上进行的探索和突破实际上是每天一千英里,这是不可估量的。我们在一百多年之内取得了进步;

  恐怕任何古老的人都出乎意料。但是,我们已经使用“自然科学”来改变世界,这一直是风险和机会。现在,蓬勃发展的人工智能技术也使许多学者担心我们的未来。

  直到今天,我们充分说,在某些领域的人工智能的学习和操作能力远远超过了人类的上限。几年前,人类的最后一个位置也被Alpha Dog成功地赢得了。直到今天,我们必须记住本世纪著名物理学家史蒂芬·霍金(Stephen Hawking)的关注:

  他说,只有两个“潘多拉盒子”可能造成人类破坏。一个是一个未知的外星文明。另一个是人工智能技术,尤其是后者。他甚至预测时间:2045。

  换句话说,在2045年,人工智能技术将在人类社会的各个方面使用,我们认为具有自主意识的人工智能将逐渐成熟。在那个时候,有了明智的机器,您仍然会服从人类的转移众生?恐怕没有人能给出确切的答案。

  霍金先生的观点是,人工智能与人类之间的矛盾几乎无关紧要。这看起来有些激进,但是从严格的学者的口中,他说必须有他自己的论点。

  此外,即使人工智能不是人类的敌人,当我们在各个方面使用这项技术时,它都将不可避免地带来大量的劳动力。这些人没有工作,没有经济来源:当时,世界一定会陷入混乱。

  对人工智能的过度依赖将失控。人工智能机器可以自己制造武器和设备,人工智能机器人更加危险。电影[Hacker Empire]可以培养计算机。人类不是天生的,而是由机器培养的。您可以看一看。

  最近,由美国公司生产的超级仿真机器人索菲亚(Sophia)在电视节目中与人类回答,并成为了“互联网名人”机器人。真的很棒。网民大叫:敏捷和真实的人不清楚!

  技术通常是一把双刃剑。虽然人工智能的快速发展,但它也带来了一些困惑和挑战。将有人工智能具有自主意识和情感吗?这会影响人类社会吗?

  法律纠纷

  假设无人汽车伤害了人们,然后开发商负责或驾驶公司。

  关于人工智能带来的“道德困境”,许多专家都纠结了。尽管这种场景仅存在于这个想法中:一辆充满乘客的无人汽车正在开车,并遇到了孕妇穿过道路的突然情况。紧急刹车。可能会打孕妇。在这种情况下,无人汽车做什么?

  如果驾驶员是一个人,那即时完全取决于清醒的判断,甚至是直觉或直觉。

  “无人机取决于人工智能的大脑。目前不可能做出超过人类算法范围的行为决策。”惠江大学计算机学院教授吴Fei说,该国的年度交通事故数据被“喂给计算机”,人工智能可以学习大量数据中隐含的各种行为模式。车辆将从当前场景数据库中选择类似的情况,然后根据所选情况实现此决定。

  但是,当遇到一个完全奇怪的场景时,我该怎么办?

  过去的价值场景形成了与之相对应的决策。如果计算机搜索的场景的相似性小于阈值,也就是说,找不到相似场景,那么算法可以限制无人汽车随机选择的方式处理它。

  “程序员可以就无人驾驶汽车的方式达成共识,但是该协议始终遵循普遍的社会道德。在此过程中,程序员必须与伦理学家一起参与级别。程序员必须使用道德决策 - 制定用途来使用决策 - 制定形式。代码的反映并输入了系统。” Wu Fei认可。

  谁负责无人机伤害人类?

  “当前的人工智能尚未达到智能或超人智能的水平,人工智能不能被视为行为的主题。”智格大学的教授尚·海明(Sheng Xiaoming“主题”的概念具有一系列限制,例如反映,主观判断以及情感和价值目标的能力。在严格意义上,人工智能不是“智力”。

  “人工智能的智力表现以及人类社会道德行为标准的掌握和遵守是大数据学习结果的表现,这与人类的主观意识基本上不同。人工智能不是一种生物,也不是一种生物行为不是行为的主题,也不是传统的司法试验,可以转向人工智能。因此,人工智能不能用作社会责任的承担。科学,具有相同的观点。

  “以无人驾驶汽车为例,无论是负责人工智能开发商,还是无人驾驶公司负责甚至任何第三方责任,或者应如何分担这些责任的人,以下规定的框架,这是通过制定商业合同来达成的。” Zhao Lianfei说。

  情绪神话

  人们和人工智能都有情感,例如夫妻,父亲和女儿等,并会质疑现代的道德准则

  科幻粉丝不会忘记这几个片段:在电影《机械吉》的结尾,机器人艾娃(Ava)具有自主意识,并用刀杀死了她的设计师。在电影“ She”中,人工智能操作系统名为Samantha拥有Love。两个人理解的爱根本不是同一回事。

  尽管对科幻小说中人工智能的描述是负面的,但它在一定程度上也表达了人类的焦虑和关注。在现实中,人工智能将具有自主权,它会与人类有情感吗?

  “这取决于如何定义单词'。人工智能的自主权仍然取决于学习的模型和过程。就像alpha狗对每个步骤的选择一样,选择一种选择方法来选择大量的方法国际象棋游戏。这种自治在最终意义上是有限的自主权。这实际上取决于您所学的内容。”,不超过此范围。

  能否超越机器对人类的研究并积极产生意识和情感?通过了解人脑透明,您可以创建像人脑一样的机器。“不幸的是,我们不知道如何对人脑具有意识和情感。”

  人工智能变得越来越像人类。

  “人类对人工智能的感受是否会取决于这个过程是否给人类带来欢乐。作为互联网的早期发展 - 在互联网的早期发展中,没有人知道您是狗。知道沟通者的身份,只要另一方能给自己带来欢乐,这种关系就会出现。情报可以回答人们可以想到的许多问题,这会导致个人学习,生活方式甚至社交模式的改变。

  如果人们和人工智能具有夫妻,父亲和女儿等情绪,他们将质疑现代的道德准则。这两个类似于夫妻之间的道德准则,父亲和女儿的道德准则;但是,如果人们总是认为人们和人工智能关系是主导人的“游戏关系”,而相应的道德标准也无法谈论。” Zhao Lianfei说。。

  先

  专家建议改善人工智能技术规格和法律约束

  面对人工智能带来的各种影响,专家认为,美国科幻小说家阿西莫夫(Asimov)在1950年代提出的三个机器人法律今天仍然具有参考意义。这些法律不得伤害人:他们也不会伤害人们,他们也不会看到。受伤和站在的人;机器人应该遵守所有人的命令,但不得违反第一法律。机器人应该保护自己的安全,但他们不能违反第一和第二秒。

  “最终分析,人是智能行为的一般切换。”吴Fei认为,人类可以完全计划并应对人工智能可能带来的威胁。

  “开发人员应始终将人工智能对社会的责任承担技术进步的冲动。就像生物克隆技术一样,从提出克隆技术的那天起,克隆的社会道德问题始终将克隆的技术问题优先考虑。应逐渐积累经验和技术以在发展人工智能的过程中控制人工智能,尤其是防止人工智能失控的经验和技术。

  尽管人工智能越来越高,但根本原因仍然是基于大量数据处理的智能程序的结果。程序。要自动保持距离;您不能采取进攻行动,并限制机械师的范围。以代码的形式。使他们遵守人类行为指南。

  “除了设计和构建技术规范外,相关政府部门还可以领导它与人工智能技术专家,社会科学研究人员和政府管理人员成立人工智能管理委员会,作为其核心,以开展涉及涉及的研发项目人工智能。审查和评估,严格控制从技术到产品的转变。” Zhao Lianfei认为,此外,我们应该从多个方面加强对人工智能的研究,跟踪和了解人工智能的发展趋势和实践

  在讨论机器人是否会失控之前,让我们首先看看某些机器人造成的悲剧:

  1978年9月6日,日本广岛的一家工厂的切割机器人突然在切板时出现异常。值班工人用作钢板操作。这是世界上第一个机器人杀人事件。

  1982年5月,日本Yamana县的阀加工厂的工人正在调整停止的螺丝加工机器人,机器人突然开始,拥抱工人旋转,造成悲剧。

  在1985年之前,苏联著名的智能机器人杀手发生。这位机器人玩家非常生气,以至于他突然向金属棋盘释放了强烈的电流,将国际大师击倒了。

  这些是无流血的课程。它直接向人们解释:尽管机器人给人们带来了很多方便,但毕竟,这不是一个真正的“人”。当他们失去对人类的有效控制时,它们非常危险。

  但是,这些是由机器人初始阶段引起的某些机器人系统和事故的不完善引起的。当时的机器人在人工智能中的条件与现在的情况不同。

  但是,值得担心的是,由于机器人变得越来越聪明,他们会失控吗?人类的生存会受到他们的威胁吗?这些问题不能随便得出结论。

  人们现在更关心的是军事机器人是否会“叛逆”,因为毕竟,这是最可操作的“钢铁军”。

  像所有机械一样,战斗机器人也会有故障和错误的操作。尽管支出进行了大力测试和严格的质量控制可以减少软件问题的数量,但永远不可能完全消除程序失败。因此,人们可以赢得的最佳解决方案可以赢得是为了控制失败机器人造成的麻烦。,也许他们可能无法受到控制,甚至其计算机的后果“疯狂”或成为“叛军”。

  托夫勒在《未来战争》一书中写道:“机器人对手认为机器人武器不能适应战场上的许多突然变化。他们是什么?机器人的道德无法区分敌人或想投降?失败的机器人武器变得疯狂和火灾,导致冲突无休止地升级吗?计算机程序设计设计的设计是吗?人们能否真正期望战场上各种变化并进行对策,以应对计算机程序?最好的机器人设计师会犯一些错误;即使它是最好的软件系统不能考虑所有内容。人类决策和机器人决策之间的区别是,一旦人类决策者发疯,可能有时间停止他们或控制他们的不利后果在最小范围内。如果我们赋予机器人的超人智慧,以便机器人武器具有选择,学习和联系的能力,那么弊端方程非常不同。“

  机器人武器系统的开发商必须确定他们开发的机器人安装的人工智能系统在多大程度上不对人类生存构成威胁。到具有大容量数据存储能力和的计算机的计算机“大脑”快速处理能力,未来机器人在某些问题的推导中的能力和对情况的反应将比人类更好。机器人可能具有战术甚至某些战略决策的能力。政策决定,他们将不可避免地导致他们控制人类控制的结果。

  但是,从长远来看,使用机器人的好处可能远远超过要假设的风险。机器人在执行任务时不怕心理学,一旦被捕获,也可以启动自我损害设备本身。动物学不会背叛金钱的吸引力,美丽的诱惑或出于意识形态的原因。换句话说,机器人失控的可能性很小!

  结论:以上是如何防止首席CTO注释中的人工智能失控计算机的相关内容。希望它对您有所帮助!如果您解决了问题,请与更多关心此问题的朋友分享?