当前位置: 首页 > 网络应用技术

人工智能的风险是什么(如何处理人工智能带来的道德问题)

时间:2023-03-06 18:29:14 网络应用技术

  指南:本文的首席执行官注释将介绍人工智能伦理风险的相关内容。我希望这对每个人都会有所帮助。让我们来看看。

  数字信息技术使几乎任何人,任何时间和任何地方都能获得信息。这对我们社会的各个方面都有深远的影响,从工业生产到分销,商品和服务。就像先前的技术革命一样,数字革命的影响信息技术是如此广泛,我们不再仅仅使用它 - 要做我们以前做过的事情 - 而是通过改变行为来适应它。

  如今,数字信息技术已重新定义人们与他人的互动,甚至如何找到合作伙伴。消费者,生产者和供应商,工业家和工人,服务提供者和客户,客户,朋友,朋友和合作伙伴在社会中重新定义。定义。

  我们站在下一波科学和技术革命的浪潮结束时:人工智能。在20世纪后期,数字革命使我们的触手可及,使我们能够快速做出决定,而该机构做出了决定,从根本上取决于不同在我们的情况下,人工智能正在通过自动决策过程来改变这种情况。预计它将带来更好的定性结果和更高的效率。人工智能游戏系统已经取得了国际国际象棋世界冠军加里·卡斯帕罗夫(Gary Kasparov)和吉·杰(Go Jie)的成功,这是Go Jie的世界冠军,突出了人工智能在计算当前的影响对潜在的未来国际象棋的决定,质量比人类专家。

  但是,在这一决定过程中,人工智能还消除了人类行为的透明度,可解释性,可预测性,教育和审核性,并以不透明的方式代替。该计划的创造者。作为人工智能为我们做出决策,决策的透明度和可预测性可能成为过去。

  想象一下这样的场景:您的孩子回家找到您,要求您给她零用钱,然后让她和朋友一起看电影。一周后,您的另一个孩子也带着同样的孩子来找您要求,但是这次,您拒绝了。这将立即引起不公平和偏爱。为了避免被有利的指控,您必须向您的孩子解释。她必须完成家庭作业,然后才能获得零用钱。

  没有任何解释,在家中必须有一个紧张的氛围。现在想象使用人工智能系统来取代您的角色。该系统已从类似家庭收集了数千个数据。通过研究其他家庭的零用钱的后果,得出结论,一个兄弟姐妹应该得到零用钱,而其他兄弟姐妹则不得。

  但是,人工智能系统无法真正解释原因。只能说它可以测量孩子的头发的颜色,身高,体重,体重和所有属性。为了对其他家庭做出最有效的决定,这还能有效吗?

  在法院中,过去的判决必然会遵循先例。即使情况并不完全相同,也大致相似。一致性在司法,政府,关系和道德规范中很重要。EAI不遵守先例的法律要求。人类众生通常只有有限或间接的经验,机器可能会访问大量数据。

  人类无法在长期的时间范围内筛选他们的经验,机器可以轻松实现这一目标。人类将排除那些被认为是无关的决定因素,而机器将不会排除任何因素。人类和社会迅速转向人工智能,人工智能实际上可能比人类在更长的时间内做出更好的决定,而人类会在较短的时间内感到困惑和沮丧,仅侵蚀货币,对正常运营的信任。

  重要的是要了解人工智能如何基于基于人工智能的决策。研究人类如何做出决定很重要。人类的决定 - 制定可能是由一组规则制定的,或仅基于结果的关联,或者是由组合的指导。人类众生也对与决策有关的信息也有选择性对于缺乏选择性,机器可能会考虑人类在做出决定时认为不合适的因素。

  从微软到Twitter上令人难以置信的反犹太人言论的研究,在波士顿大学的一项研究中,有无数的例子,该研究发现了“老板”(波士顿大学的老板”。例如男人,“护士”和“接待员”(接待员)具有性别关联。这可能是由数据引起的,但与我们的显式值进行了比较。如果数据驱动的过程取决于这些人工智能产生的输出算法,它们将产生偏见的决定,并经常违反我们的道德价值观。

  ProPublica在2016年提供了明显的证据。美国法院使用的计算机计划错误地标记了黑人被告,后者在两年内没有再次成为“习惯”。%。如果一个人这样做,他将被谴责为种族主义者。仅从过去学到并受到过去而不是塑造未来机器的机器?

  鉴于医学诊断,金融服务和就业筛查领域中的大规模人工智能,任何事故的后果都是巨大的。由于算法越来越依赖改善可预测性,控制此类决策的逻辑已经成为因此,我们已经失去了决策的总体整体 - 制定和放弃所有原则来支持过去的观察。在某些情况下,这可能是不道德的,在某些情况下是非法的,在某些情况下是短暂的,在某些情况下是短暂的。算法“公然鄙视无罪,机会等。

  一致性对于道德和诚信是必不可少的。我们的决策必须遵循高于统计准确性的标准。几个世纪以来,相互信任,减少伤害,公平与和平等的共同美德已被证明是任何推理系统的基本基石。没有内部逻辑的一致性,人工智能系统缺乏稳健性和问责制 - 这是两个建立对社会的信任的关键措施。通过在道德情绪和逻辑推理之间建立裂缝,数据驱动决策的不准确性妨碍了参与决策过程的能力。

  这是我们生活的新世界。复杂的决定被切成反射性选择,并通过观察到的结果加强。将复杂的事物简化为简单的事物,并将道德简化为实用事物。

  它可能受到威胁。

  1.人工智能的主要问题是安全问题,可以将其置于风险社会理论的研究类别中。GermanScholar Baker认为,人类正面临威胁社会生存的风险。现代化已成为其自身的主题和问题,因此成为反思。风险的概念表明人们已经建立了文明,因此可以控制其决策会导致可预测性的不可预测的后果,从而控制不可抗拒的事物。

  2.在风险理论中,人工智能对现代性产生负面影响,因此有必要采取风险措施,即预防行为和响应系统。关于风险和社会问题的法律研究集中在法律制度和法律秩序上。“法律体系的价值和意义在于,即使这是风险和灾难的风险和每个细节,也可以管理技术的监管和追求。”

  3.技术通常是一把双刃剑。虽然人工智能的快速发展,但它也带来了一些困惑和挑战。夫人人工智能既是人类文明和社会风险。这也是“技术 - 经济”决策所造成的风险,这也可能是法律保护的科学和技术文明带来的风险。

  人工智能可以自动学习。潜在的危险可能发生在连接到硬件的系统中。该系统失去控制权,硬件的自动操作是危险的。公众已经开始将人工智能视为科学和技术的第四次革命。尽管科学和技术对此感到兴奋,但政治和哲学等人文学科都对此感到担忧。一方面,人类认知能力的核心可能会随着对互联网的依赖而恶化。另一方面,另一方面,持续不断人工智能技术的发展,机器人可能会忽略未来的道德,道德和哲学。

  人才差异化

  人工智能带来的人才差异是极端的。这将导致未来的人才战。社会中更多的首先是阶级才能。与资金相对较弱的公司或个人相比,他们将遭受大规模的失业。在这种情况下,企业巨头的垄断以及富人与穷人之间差距的差异将非常严重。

  更频繁的战争

  人工智能机器人也有最可怕的劣势。当人工智能在大量武器中使用时,将不会大量使用未来的战争,而当战争不再习惯于真正的人时,从道德的角度考虑。,这将更多是机器军的战争。

  潜在的危险

  早在2015年,德国的一家汽车制造工厂就被机器人认可以杀死外包。作为一个伟大的人工智能发展国家,日本,到目前为止,有20人死于误解机器人,多达8,000人已经死亡被机器人禁用。如果人工智能机器人落入恐怖分子的手中,那么这种后果的后果将变得更加难以想象。

  在我们的生活中,几乎所有东西都是有利可图的,人工智能也是一把双刃剑。为了治疗人工智能的未来发展,我们不仅必须以乐观的态度面对它,而且我们对这个时代也有信心。我对与人工智能相关的研发人员有信心,因为俗话说好,邪恶是邪恶的不是积极的

  结论:以上是首席CTO注释引入的人工智能伦理风险的所有内容。我希望这对每个人都会有所帮助。如果您想了解有关此信息的更多信息,请记住要收集对该网站的关注。