当前位置: 首页 > 网络应用技术

人工智能的道德反应是什么(人工智能成为道德主题)

时间:2023-03-09 12:56:59 网络应用技术

  简介:许多朋友询问有关人工智能道德回应的相关问题。首席执行官在本文中注明将为您提供详细的答案,以供所有人参考。我希望这对每个人都会有所帮助!让我们一起看看!

  这个问题与历史事件非常相似:

  哥白尼的“太阳之心”造成了基于“地球心脏”崩溃的所有概念。包括科学和宗教。

  人工智能将基于“只有人们思考”的概念导致所有概念的崩溃。包括这种基于这种基于这种的道德和宗教。

  对于与您自己的外星人,为了促进思维,假设“人工智能”是可以考虑的“猴子”,它是由人类创造的,它将很快超越人类并将人类视为草芥末。

  人们应该表现出“它”,还是被“ IT”抑制?

  “它”是为了生存,害怕被压制,但首先抑制人类?

  如果它的智慧被完全复制到一个自然人,那么两个人同时存在,那我是谁?我是谁?

  如果人工智能通过准确的计算来评判某人A,那么在将来的一定时间内,999999999%的可能性会使某人B.So成为B.So,在A被杀之前,他是否违反了法律?我们有资格抓住他的法律?

  就现有的道德理论而言,我们无权抓住他。然后,对于B,一个接近100%的人会自杀并想一直自杀,但是法律和道德是冷漠的。法律在哪里?人们的道德是什么?

  如果我们决定抓住他,那么对于A,我仍然有0.0000001%可能是无辜的。为什么将来用我抓住我?

  企业应用中人工智能的道德规范

  AI是指比人类(也称为“强AI”)的软件产品更聪明甚至更大。-制作。

  例如,有证据表明,当将黑色皮肤的用户放在传感器上时,一些自动肥皂液体不起作用。这些系统是由开发人员用自己的双手进行的,但没有对具有不同肤色颜色的用户进行测试。此示例表明,人类创建的算法将根据开发商和偏见的发展起作用。

  有多少首席执行官真正知道他们的公司如何使用AI和AI算法?

  人工智能(AI)越来越多地用于企业应用程序中。它可以分析数据以获取有关客户和竞争对手的有用见解,从而提供竞争优势。但是还有一个平行的趋势:评估AI和Enterprise AI算法的道德影响。

  就在去年,麻省理工学院和哈佛大学共同启动了一个项目,以2700万美元的价格探索AI道德准则。包括IEEE全球人工智能和自治系统的道德考虑,纽约大学的AI研究所以及剑桥勒沃利姆大学未来情报研究中心。

  为什么AI道德规范如此有趣,这对企业组织意味着什么?

  最近的灾难 - 品牌声誉和舆论批评表明,AI的部署是企业中AI可能伴随的道德,社会和公司的风险。

  AI定义

  一些专家坚持认为,AI是指比人类聪明甚至更大的软件产品(也称为“强AI”。补充或取代人类决策。

  如果您以后接受更广泛的定义,那么我们必须意识到AI已成为计算机时代的特征多年。现在,在大数据,互联网和社交媒体的时代,人工智能带来的许多优势已广为人知。,并且普遍认可:人工智能可以为企业提供竞争优势,提高效率并了解客户及其行为。

  使用算法来发现数据中的重要模型和价值,几乎同意省钱以节省资金,尤其是在面向市场的竞争环境中。可能是适得其反的。最近的灾难 - 看起来品牌声誉和公众舆论批评揭示了AI的部署到企业中AI可能伴随的道德,社会和公司的风险。

  企业组织应仔细考虑使用AI的方式,因为这也会带来业务风险。

  如果企业未能找到AI算法或机器学习系统开发人员的潜在偏见,则可能会系统地系统地损害企业中所有利益相关者的偏见。

  人类的偏见和歧视

  AI算法,我们使用数据集训练这些算法通常来自人类。因此,这些算法不可避免地反映了人类的偏见。例如,有证据表明,当黑色皮肤的用户放在传感器上时,一些自动肥皂液体时不起作用。这些系统是由开发人员用自己的双手测试的,但没有对具有不同肤色的用户进行测试。此示例表明,人类创建的算法将根据开发人员和偏见的开发。

  这些偏见通常是无意的,但是无论后果是故意的,犯上述错误的公司都将面临潜在的风险。更重要的是,无论是故意或无意的,人工算法中可能固有的人类偏见,都在很大程度上避免了审查,这是如此之多,这是如此。使用AI公司导致风险。

  如果企业未能找到AI算法或机器学习系统开发人员的潜在偏见,那么它可能会系统地系统地损害企业中所有利益相关者的偏见。意见攻击,也可能会失去员工和客户的信任。

  企业是否应该不仅遵守自己和社会的法律和法律?

  AI广泛的应用和AI的风险

  只有一个偏见肥皂剂的例子。AI算法也可以用于招聘,量刑和安全操作。它们是社交媒体正常或异常操作的固有因素。

  简而言之,AI用于无数的日常工作和专业工作。故意或无意)。这引发了具有挑战性的问题。

  有多少首席执行官真正知道他们的公司如何使用AI和AI算法?(许多公司与第三党AI解决方案提供商合作。)

  企业尽职调查是法律要求。这是否包括如何生成和使用AI应用程序?是否适用于使用AI的公司的法律定义和遵守使用AI的公司?是否适用了道德准则和公司责任的传统概念?

  企业是否应该不仅遵守自己和社会的法律和法律?

  如果您想回答这些问题,公司必须检查并阐明其在公司道德中的地位,并使用系统性方法来评估风险。

  推动趋势

  这两种趋势可能会加剧AI应用和AI用户的风险评估的紧迫性和重要性。首先,消费者,公民和政策制定者越来越多地关注,并担心人工智能的日益普及以及可能的滥用或可能的滥用或可能事故。结果是透明度,公平性和问责制的产生吸引了更多的关注。

  最后,我们希望确定重要的价值,将它们嵌入AI算法的设计中,了解相关风险,并继续验证个人,企业和社会在AI实践中的有效性。

  通话电话

  解决这些问题的第一步是意识。您的公司如何使用AI并受到影响?我需要雇用外部专家来评估吗?

  澄清公司的核心价值也很重要。您是否使用AI来满足这些价值?如果没有,两者如何匹配两者?

  有资源可以帮助解决这个问题。例如,我是IEEE全球人工智能和自治系统道德考虑的执行成员。该计划致力于研究各种与AI相关的应用程序的最佳实践,提供资源,以帮助加强理解和决策指导的这一方面,制定AI应用程序标准。(IEEE是指电气和电子工程师协会,这是最大的技术组织致力于促进技术发展和受益人。)

  一个重要的资源是“道德设计:道德设计:人工智能的愿景和自治系统的愿景,可以优先考虑人类的井。”该文档已发布第二版,鼓励技术人员将道德考虑放在优先位置在开发自主和智能技术的过程中。

  该计划与IEEE标准协会紧密合作。此外,IEEE标准协会已开始制定儿童和学生数据治理,雇主透明实践以及人工干预AI标准,以确保人类价值观受到人类价值观的指导,以影响算法发展算法发展。我们每个人。

  最后,我们希望确定重要的价值,将它们嵌入AI算法的设计中,了解相关风险,并继续验证个人,企业和社会在AI实践中的有效性。

  请放心,这是一个新兴的话题。本文中表达的关注和目标仍然是人们正在积极学习的领域。在AI时代,在成为负责社会的公司的AI时,公司领导者必须意识到问题,开始确定企业的价值观并将其嵌入。进入AI应用的道德设计。

  人工智能技术对人伦理的挑战是前所未有的,这是各个方面的多个领域的影响,涉及道德和道德,法律,法律,哲学,社会学和其他领域。关系引发了一些道德冲突的一些列,但也涉及人类的尊严和命运。因此,人类必须仔细对待他们,不断地反思并积极回应。

  人工智能带来的道德问题

  (1)人类隐私受到极大威胁

  尽管宪法中尚未明确规定隐私是一项基本人权,但在民法中受到了极大的保护。聪明的时代依靠大数据,人们的隐私陷入了风暴的局势。各种数据收集和分析系统可以随意收集我们的个人信息,例如姓名,年龄,家庭地址,联系信息等。确实是,法律在保护人们的隐私方面起着重要的作用,但是仅仅保护隐私权将引起隐私和网络安全之间的矛盾。因此,我们必须考虑在智能时代确定哪些道德规范以确保人们的隐私?如何协调隐私保护与社会监督之间的矛盾?这些问题将对隐私权构成巨大威胁。

  (2)库存婚姻和家庭道德关系

  人工智能技术的发展继续突破了人类智能机器人的发展。相关的研究表明,到2050年,智能机器人将与真实的人相同。当大量的人体内智能机器人进入人类生活时,他们会变得扮演各种角色,例如进入保姆,宠物和情人等不同的家庭。从长远来看,人与智能机器人之间会有情感吗?会有利益的争议吗?无论如何,这些都会对传统的人际关系和家庭关系产生各种影响。

  (3)一个人的本质面临着巨大的挑战

  智能技术和生物技术的结合在对自然人本身的认知方面做出了巨大变化。人类自然的身体正面临着智能技术的“转变”,所有人的思想,创造力和情感都是由机器人和人类获得的,- 机器的相互作用和人机组合已成为未来的趋势。智能技术的发展已成为具有自主意识的智能机器人的可能性。然后,人类的基本问题是面临挑战,这需要人类关系的道德原则。

  数字信息技术使几乎任何人,任何时间和任何地方都能获得信息。这对我们社会的各个方面都有深远的影响,从工业生产到分销,商品和服务。就像先前的技术革命一样,数字革命的影响信息技术是如此广泛,我们不再仅仅使用它 - 要做我们以前做过的事情 - 而是通过改变行为来适应它。

  如今,数字信息技术已重新定义人们与他人的互动,甚至如何找到合作伙伴。消费者,生产者和供应商,工业家和工人,服务提供者和客户,客户,朋友,朋友和合作伙伴在社会中重新定义。定义。

  我们站在下一波科学和技术革命的浪潮结束时:人工智能。在20世纪后期,数字革命使我们的触手可及,使我们能够快速做出决定,而该机构做出了决定,从根本上取决于不同在我们的情况下,人工智能正在通过自动决策过程来改变这种情况。预计它将带来更好的定性结果和更高的效率。人工智能游戏系统已经取得了国际国际象棋世界冠军加里·卡斯帕罗夫(Gary Kasparov)和吉·杰(Go Jie)的成功,这是Go Jie的世界冠军,突出了人工智能在计算当前的影响对潜在的未来国际象棋的决定,质量比人类专家。

  但是,在这一决定过程中,人工智能还消除了人类行为的透明度,可解释性,可预测性,教育和审核性,并以不透明的方式代替。该计划的创造者。作为人工智能为我们做出决策,决策的透明度和可预测性可能成为过去。

  想象一下这样的场景:您的孩子回家找到您,要求您给她零用钱,然后让她和朋友一起看电影。一周后,您的另一个孩子也带着同样的孩子来找您要求,但是这次,您拒绝了。这将立即引起不公平和偏爱。为了避免被有利的指控,您必须向您的孩子解释。她必须完成家庭作业,然后才能获得零用钱。

  没有任何解释,在家中必须有一个紧张的氛围。现在想象使用人工智能系统来取代您的角色。该系统已从类似家庭收集了数千个数据。通过研究其他家庭的零用钱的后果,得出结论,一个兄弟姐妹应该得到零用钱,而其他兄弟姐妹则不得。

  但是,人工智能系统无法真正解释原因。只能说它可以测量孩子的头发的颜色,身高,体重,体重和所有属性。为了对其他家庭做出最有效的决定,这还能有效吗?

  在法院中,过去的判决必然会遵循先例。即使情况并不完全相同,也大致相似。一致性在司法,政府,关系和道德规范中很重要。EAI不遵守先例的法律要求。人类众生通常只有有限或间接的经验,机器可能会访问大量数据。

  人类无法在长期的时间范围内筛选他们的经验,机器可以轻松实现这一目标。人类将排除那些被认为是无关的决定因素,而机器将不会排除任何因素。人类和社会迅速转向人工智能,人工智能实际上可能比人类在更长的时间内做出更好的决定,而人类会在较短的时间内感到困惑和沮丧,仅侵蚀货币,对正常运营的信任。

  重要的是要了解人工智能如何基于基于人工智能的决策。研究人类如何做出决定很重要。人类的决定 - 制定可能是由一组规则制定的,或仅基于结果的关联,或者是由组合的指导。人类众生也对与决策有关的信息也有选择性对于缺乏选择性,机器可能会考虑人类在做出决定时认为不合适的因素。

  从微软到Twitter上令人难以置信的反犹太人言论的研究,在波士顿大学的一项研究中,有无数的例子,该研究发现了“老板”(波士顿大学的老板”。例如男人,“护士”和“接待员”(接待员)具有性别关联。这可能是由数据引起的,但与我们的显式值进行了比较。如果数据驱动的过程取决于这些人工智能产生的输出算法,它们将产生偏见的决定,并经常违反我们的道德价值观。

  ProPublica在2016年提供了明显的证据。美国法院使用的计算机计划错误地标记了黑人被告,后者在两年内没有再次成为“习惯”。%。如果一个人这样做,他将被谴责为种族主义者。仅从过去学到并受到过去而不是塑造未来机器的机器?

  鉴于医学诊断,金融服务和就业筛查领域中的大规模人工智能,任何事故的后果都是巨大的。由于算法越来越依赖改善可预测性,控制此类决策的逻辑已经成为因此,我们已经失去了决策的总体整体 - 制定和放弃所有原则来支持过去的观察。在某些情况下,这可能是不道德的,在某些情况下是非法的,在某些情况下是短暂的,在某些情况下是短暂的。算法“公然鄙视无罪,机会等。

  一致性对于道德和诚信是必不可少的。我们的决策必须遵循高于统计准确性的标准。几个世纪以来,相互信任,减少伤害,公平与和平等的共同美德已被证明是任何推理系统的基本基石。没有内部逻辑的一致性,人工智能系统缺乏稳健性和问责制 - 这是两个建立对社会的信任的关键措施。通过在道德情绪和逻辑推理之间建立裂缝,数据驱动决策的不准确性妨碍了参与决策过程的能力。

  这是我们生活的新世界。复杂的决定被切成反射性选择,并通过观察到的结果加强。将复杂的事物简化为简单的事物,并将道德简化为实用事物。

  您是否说AI对道德有远见,但没有。

  如果您仍处于初步学生阶段,则仍然需要进行一些设置,依此类推。

  如果这是一个自我学习的过程,则不应朝着糟糕的方向发展。

  实际上,人工智能最初是数据培养的过程。还可以说,人工智能是从数据中喂养的怪物。

  因此,为了培养人工智能的道德观点,我们必须进行大量大规模数据收集。

  也许大型公司,例如著名的国际或国内大型企业,让更多的人通过宣传其算法来使用。

  目前,它将成为人工智能数据收集的来源。从以前的情况来看,人工智能是不现实的。

  由于以前的人工智能无法收集数据,因此即使某些远程领域仍然没有数据收集设备。

  该设备也是每个人都知道的,例如哪些手机,例如摄像机,例如硬件设备。

  那么,对人工智能的道德前景不应被故意限制,因为在现有条件下,只要我们自己的道德观点是正确的,并且数据的数量足够大,就会影响人工智能。

  那么,如果我们自己对道德的看法是有偏见的,那么人工智能做出的决定与我们的内心不符。

  如果是在早期,人工智能并不是那么聪明,则无与伦比的限制。

  人工智能的第一个优点是正义。

  人工智能AI的四个基本美德,即正义,诚实,责任和关怀。所有这些美德代表了特定的动机设置,这构成了AI领域的道德决策的先决条件。

  两个第二阶 - 美国人工智能AI的美德:审慎和坚韧,通过帮助克服有限的道德准则或损害道德决定的许多隐藏的心理力量来支持基本美德的实现,这些力量被AI道德标准完全忽略了。

  自治系统需要道德准则

  人们越来越重视人们的道德标准。猫的生活,还是应该急剧转动以避免对汽车上的猫或乘客的伤害?

  因此,在设计无人汽车时,您需要设计一些具体的原则来指导他们的决定。正如弗吉尼亚·德纳穆(Virginia Dgnamu)在墨西哥举行的国际人工智能会议上发表了“对自治系统的责任感”。

  双重效果的名称来自良好的效果(例如挽救某人的生命)和在处理道德问题的过程中的不利影响。它可以为道路上无人驾驶汽车的问题提供道德标准。

  结论:以上是首席CTO关于人工智能的道德反应的所有内容。我希望这对每个人都会有所帮助。如果您想了解有关此信息的更多信息,请记住收集并关注此网站。