简介:许多朋友问有关如何在犯错后纠正人工智能的问题。本文的首席执行官注释将为您提供详细的答案,以供所有人参考。我希望这对每个人都会有所帮助!让我们一起看看!
人工智能的出现并非偶然。他是一种聪明的产品,它出生于时代,而且时代的财富。这种财富有利于大多数人或为少数人寻求福利和财富。所有种类都有界限。如果他违反了,他自然会违反规则。首先,他的目标之一就是使人们的目标之一。使人们的工作更加方便。这是他无法摧毁的生态系统。许多人不能保证许多人。基本原则是人工智能无法违反的道德底线和法律底线。
确实有很多细节。您可以说,您可以一次完成所有工作,但是人工智能确实可以给各行各业带来很多好的影响,并且也会造成不良影响。这需要在许多过程中进行权衡。例如,机器人需要多少意识?它是否可以具有很多人类的行为和意识,它可以形成自我判断力和自我control。例如,婚姻,例如拥有孩子,例如伴侣。如果您可以解决,您将违反一些底线。例如,您可以自己做出一些决定。自主意识!
因此,人工智能能够发展到多么深,这是最关心的。目前,某些职位在人工智能方面受到了某些职位的影响,甚至许多职位也被替换。因此,人力的成本正在降低。行业,选择业力!这是一个真正的问题!
因此,在国家一级可以获得多少人工智能,这非常重要。当然,人工智能也帮助我们解决了许多实质性问题。例如,这项新的皇冠药物研究,阿里的AI技术正在帮助火焰!因此,它给人们带来了危机和深刻的思维感。同时,人工智能的出现确实使我们的生活和工作变得很方便。例如,人工智能加入了智能运输,智能校园和智能医疗领域的成就。
人工智能的辅助驾驶将最终实现无人驾驶和人工智能的智能住所。根据归纳系统,语音系统和温度条件,温度,亮度和时机控制的自动调节,人们可以极大地享受伟大的享受,并且清洁室有一个清洁机器人可以工作!
虚拟机器人和虚拟工作领域在媒体行业发生了很多变化。随着人工智能的出现,智能捕获和智能捕获技术被应用于交通警察道路管理。详细且质感!
你好!我很高兴回答您的问题!
人工智能的概念诞生于1956年。在高潮和槽之后,人工智能突然在近年来突然实现了爆炸性的上升。也许每个人都认为人工智能仍然有些遥远。长期以来,人工智能的应用已被渗透到日常生活的各个方面。同时,人工智能也给人类带来了一些缺点。让我们分析人工智能的优势和缺点。
利润:
1.人工智能为人类的生活带来了许多便利。
例如,人工智能的医疗应用现在使公众受益。每个医生都有最新的治疗计划和方法,也不能理解所有医疗案例。但是,可以使用人工智能。它可以在短时间内分析大量数据,准确地判断疾病,并找到最佳的治疗计划。这意味着人工智能可以为人们提供最佳的治疗。在无人驾驶领域,人工智能的应用而不是仅减轻了人们的负担,但也大大降低了事故率。在另一个例子中,苹果系统的爵士手写系统和生物识别系统现在是人工智能的应用,这极大地改善了人类生活的质量。
2.促进人工智能的社会进步。
在采用人工智能之后,各个行业的生产效率已大大提高,人类财富以几何形式迅速增长,为人类美丽的生活提供了坚实的材料基础。夫人人工智能使人类免于重复和毫无意义的工作,无意义的工作,并从高风险的工作中解放出来,使人们拥有更多的选择自由,从而将更多的能量投入到更有意义的领域。人工智能也使人类突破了瓶颈。例如,人工智能可以探索无法通过人类实现人类的位置。外太空,Shanhai冰川,可以进行复杂的大数据有效分析和合理的使用,并让人们探索更深入的知识。因此,人工智能使人类达到了自己的局限性,并实现了对人类的进一步解放。
3.人工智能促进了人类的理性进步。
人类理性的进步也可以促进人类的发展。人工智能研发过程本身具有人类脑认知和功能的需求和特征,因此人类在此过程中学习了学习方法,从而增强了人类的逻辑思维能力。人工智能更新人类反应的方法,例如依靠大数据分析,沃森博士可以提供患者的最小和新的治疗方法和技能范围。例如,以丰富人类处理各种问题的方法。智力还扩大了人类知识和技能的范围。例如,人工智能根据大数据的分析获得了各种新知识和新信息,使人们难以预测诸如洪水和地震等灾害的预测的准确性。前面的限制变得更加强大。
缺点:
1.体育劳动行业正面临着大规模失业的风险。
根据2018年人力资源和社会保障部的新闻发布会,中国在2018年底的失业率将达到4.05%的机器人。这可以完全取代许多专业,例如工人,司机等。会导致大量人失业,并且全天无数的人无能为力。
2.人类的精神生活退化。
人工智能机器不是情感上的。如果您目前在周围,您的同学,您的朋友是人工智能机器人,您会忍受吗?当前的社会是一个物质社会,但这是一个更精神上的社会。如果有越来越多的人工智能机器人,到处都会机械化。
3.人工智能机器人非常危险。
例如,电影“我和机器人”描述了机器的悲剧,而不是消除人类的悲剧。到目前为止,日本的人工智能死于对机器人的误解,死亡,最多8,000人被机器人残疾。如果人工智能机器人落入恐怖分子的手中,那么这种后果的后果将变得更加难以想象。
以上是对人工智能给人类带来的优势和缺点的分析。总的来说,人工智能带来的颠覆性技术比劣势更大,并促进人类社会的发展和进步。人工智能的发展。如果您想与高薪的高薪合作伙伴,则可能希望考虑人工智能行业。职业发展的未来必须远远超过传统行业。
人工智能而不是人类思维,AI向人类带来了新的思维。
AI是在历史上发明人类历史上的第一个工具。但是,当这种工具的想法出现时,人类开始考虑一个问题:AI会取代人类吗?
毕竟,人类始终相信自己和动物之间的区别是人类会想到。
工具理论
如果AI可以诚实和安全,那只是人类的工具。人类的价值非常巨大。
人类太懒了,无法思考,人工智能来了。人类没有时间思考AI。
进化
但是人类必须问自己一个问题。如果AI可以考虑人类无法想到的问题,该怎么办?
我们看到狗,认为这是我们的宠物。因为它的牙齿很生气,摇尾草是宠物。它没有想到为什么星星在晚上可以看到,为什么四个季节交替出现,以及汽车为什么运行。
但是人工智能可能会在未来。
也许将来,人类将与AI结合起来,以进化更先进的人类。
消除理论
如果AI的想法远远超过人类,为什么它仍然愿意为人类服务?
人类就像一个愚蠢的老板一样,真的可以控制一个远远超过自己的情报方面的员工吗?
也许AI是赢家。
那些熟悉的人知道,在AI诞生之后,人类只能尝试理解AI的每个步骤。下一步。
如果不仅是计算能力?
随着社会和技术的快速发展,人工智能也进入了高速发展的轨道。徒劳的确实为我们的生活带来了很大的便利。我们不仅可以从日常的服装,服装,住房中得到很好的体现和运输,以及我们的日常安全预防区域,娱乐场所甚至科学研究领域,它们正在慢慢与我们联系。在人工智能高速发展的同时,人类也开始担心。将来,如果人工智能根据这一进步发展。它将完全取代人类。在当前的网络中,太多的人在吹捧人工智能。那么,人工智能还是坏人?双刃剑人工智能?
人工智能对人类的好处:
1.带来更高的商业价值
人工智能在数据集上具有一定的优势。根据当前的观察,人工智能有三个主要的业务方向。一个是大数据的统计数据,第二个是对用户情绪的评估。第三是与用户的社会联系。人工智能可以通过这三个业务方向更好地理解人类。在同一时间,您还可以创建更好的软件来为更多的人带来幸福。将来,那些可以增加客户体验并为客户带来幸福的公司将获得更多商业价值。
2.带来更多的就业机会
正如人类从工业和农业时代发展成为现代产业一样,现代化行业的时代为更多的人带来了新的就业机会。它像互联网行业一样,解决了数以千万计的人的就业。人们认为,随着人工智能的发展,无人驾驶汽车逐渐变得流行。更聪明的工作流程技术也在迅速发展,因此,以前的大多数工作将被人工智能所取代。在这项工作中,它还创造了更多的工作环境和更多的工作机会。好像目前从事人工智能领域的大多数人的年薪不是很小的年薪。
3.为人类带来更好的生活
自人工智能以来,各个行业的工作效率效率已大大提高了各个领域的效率。人类的整体财富也在索引类型中增长。在这种前提下,人工智能不仅为人类生活奠定了固体材料的基础,但也使更多的人摆脱了简单和易怒的工作。让我们更自由地做。不仅如此,人工智能也极大地帮助了医疗服务。许多医生无法确定这种情况。人工智能可以通过其大数据来分析和物理疗法。它就像当前的人工智能无人驾驶汽车。在技术保证的前提下,这不仅大大降低了事故的发生率,而且还节省了驾驶员的大量驾驶时间。
人工智能对人类的缺点:
1.人才差异化,富人与穷人之间差距的缺点
人工智能带来的人才差异是极端的。这将导致未来的人才战。社会中更多的首先是阶级才能。与资金相对较弱的公司或个人相比,他们将遭受大规模的失业。在这种情况下,企业巨头的垄断以及富人与穷人之间差距的差异将非常严重。
2.带来更频繁的战争
人工智能机器人也有最可怕的劣势。当人工智能在大量武器中使用时,将不会大量使用未来的战争,而当战争不再习惯于真正的人时,从道德的角度考虑。,这将更多是机器军的战争。
3.带来潜在的危险
早在2015年,德国的一家汽车制造工厂就被机器人认可以杀死外包。作为一个伟大的人工智能发展国家,日本,到目前为止,有20人死于误解机器人,多达8,000人已经死亡被机器人禁用。如果人工智能机器人落入恐怖分子的手中,那么这种后果的后果将变得更加难以想象。
在我们的生活中,几乎所有东西都是有利可图的,人工智能也是一把双刃剑。为了治疗人工智能的未来发展,我们不仅必须以乐观的态度面对它,而且我们对这个时代也有信心。我对与人工智能相关的研发人员有信心,因为俗话说好,邪恶是邪恶的不对!
人工智能的好处促进了人们的生活,工作和学习,以进一步促进社会的发展和经济多样性。人工智能的缺点是某些人懒惰和推动的原因。
人工智能(AI)技术的发展是科学技术和时代的象征。在工业革命的时代,信息化的时代等,但现在它正在逐渐朝着人工智能时代发展。我们必须清楚地意识到AI只是帮助我们的工具。生活,人工智能的应用程序场景将来将涵盖我们的生活,就像当前的手机网络一样。多元化的应用程序场景使AI可以分析更多数据以分析更多数据以使其分析以使更多数据分析到以下数据。获得更完整的社交数据模型。通过这些数据模型,我们可以优化我们的日常行为,生活和工作习惯,以提高效率和方便。
为了治疗人工智能,我们必须采用公开和包容的态度。由于AI取代了一些劳动力,我们绝不能携带一顶大帽子,导致失业。社会正在开发社会中的任何新技术和新产品。
人工智能的优势是巨大的,可以创新任何专业领域。
它的一些好处包括:
让我们仔细考虑一下
1.减少人为造成的错误
在人工智能模型中,所有决策均从特定算法设置之前收集的信息中获得。因此,误差减少,并以更高的精度添加准确的机会。
第二,您可以24小时7天工作
尽管大多数人每天工作6-8个小时,但AI可以制作机器24 7正常工作,而没有任何休息或无聊的时间。最重要的工作不会懒惰,也不必付款。这是资本家的完美梦想。
第三,帮助重复工作
人工智能可以有效地自动化某些人的任务,并发布日益创意的想法,直接发送感激电子邮件或验证文件是否已汇总或回答查询。
第四,数字援助
许多高级组织使用数字助理与用户进行交互以节省人力资源。这些数字助理也用于许多网站中,以回答用户查询并提供平稳的功能界面。
五个,更快的决定
人工智能和其他技术可以使机器比普通人更快地做出决策,从而更快地执行动作。这是因为在做出决策时,人类倾向于在情感上和实践中分析许多因素。相反,人工智能驱动的机器可以迅速提供编程结果,这是非常专注的。当然,有很多好处的例子,但这是人工智能的典型优势。
———————————
像任何新兴技术一样,人工智能也存在其适当缺点的缺点和缺点,例如:
不幸的是,这就是我们必须面对的
1.费用
正常的软件开发被AI分开的是其业务规模。该量表的结果是,所需的计算资源将增加一倍,这将增加运营成本,这使我们进入下一阶段。
其次,人才的培养
因为这仍然是一个新兴领域,所以缺乏经验丰富的专业人士,最佳才能被公司和研究机构迅速购买。这增加了人才的成本并进一步提高了人工智能的价格。
第三,缺乏实用产品
尽管AI周围的所有宣传都不太多。这使得很难投资更多资金来改善AI功能。
第三,缺乏软件开发标准
当不同的AI系统融合到更大,更有价值的应用程序时,人工智能的实际价值就在于协作。但是,人工智能软件开发中缺乏标准意味着不同的系统很难互相交谈。因此,人工智能软件本身的开发本身是缓慢而昂贵的,这进一步阻碍了人工智能的发展。
第四,滥用的可能性
人工智能的力量是巨大的,它具有实现伟大事物的潜力。
不幸的是,极有可能被滥用。在这个正在世界上战斗的国家系统中,想到这个问题确实很高。它可以用于中性工具用于任何事物,但是如果它属于错误的人,它将产生严重的影响。
在尚未完全了解AI发展后果的阶段,滥用的可能性可能更高。
科学和技术的发展趋势可能会被阻止。也许人工智能可以帮助人类创造性地解决这些缺点。这是不知道的。让神秘的刺激未来自动完成!
人工智能的未来和关注
霍金也有许多科学家,认为人工智能是人类技术的最后位置。科学界还认为,人类技术继续发展并遇到了瓶颈,但是如果人工智能可以帮助人类突破这种瓶颈,那么可以迎来光荣的时刻。
但是,诸如霍金(Hawking)这样的科学家警告说,人类应控制人工智能的发展,并担心在一定程度上人工智能的发展。在人工智能觉醒之后,人类被淘汰了,因为那时,人类不是人工智能的反对者。
但是,霍金还说,人类必须努力使地球离开地球数百年,因为这个星球的资源和能源将迟早使用。
更可怕的是,人类所在的星球已经被人类过度发展,生态环境受到严重破坏,最终变得不适合生命的存在。太阳迟早会燃烧。到那时,地球进入了冰时代,地球上的所有生命都将不再存在。当然,这个星球还包括更加不确定和更大的潜在危险。
霍金说,人工智能是人类技术的最后位置。是否意味着人类技术是否停止并限制人工智能的发展,并且人类技术将停止。因此,霍金警告人类有能力在数百年之内离开这个星球,这不会成为一个空的词霍金警告说,人类需要限制人工智能的发展。这不是矛盾吗?
好处:1。人工智能使人类的生活变得更好。
2.人工智能促进社会进步并进一步解放人类。在人工智能的应用后,各种行业的生产效率显着提高,人类财富以几何形式迅速增长,为美丽的美丽提供了稳固的材料基础人类的生活。
3.人工智能促进了人类的理性进步,可以促进人类发展并增强人类的逻辑思维能力。
缺点:1。在人类的疏远方面进行了全面而高度发展的人工智能。人类的控制,违反了人们的愿望,因此成为奴隶制和受到他人统治的相反力量。
2.人工智能的发展将颠覆许多行业。许多人类工作的替代将导致大量人的失业。
1.人工智能的利润
目前,人工智能为人类创造了非常可观的经济利益。人工智能可以做很多人类不想做的工作,并且在机械中犯错误的可能性低于人们,并且它可以继续工作并大大提高他们的工作。效率。
节省很多费用。将来,人工智能还可以取代人类的工作,取代人类做家务,帮助人类学习,甚至照顾老年人和孩子。实时监测人类的健康。生活使人类的生活越来越美好。
2.人工智能的缺点
霍金警告说,人类面临着不确定的未来。先进的人工智能设备可以独立思考并适应环境变化。他们将来可能会成为终结者!我可以独立思考,并独立做出准确的判断。一旦人工智能反客人是主要的一天,人工智能将对人类造成毁灭性的灾难。它甚至被人工智能摧毁。地球将由人工智能统治。
当人工智能处于低级阶段时,人类可以允许人工智能取代人类做一些基本思维,例如会计,审计,阅读和降低体力劳动的风险。毕竟,它现在由纯机器运营进行操作。工厂仍然有一定的事故发生率,人工智能可以通过自己分析预测来降低风险。
尽管它可能带来很多失业,但这是社会必须经历的过程。当发明新技术时,它肯定会影响某些群体的既得利益。一切后,它被一种需要低能力的作品所取代,您只能抱怨没有不可替代的价值。
人工智能是一种趋势。目前,只有缺点,但不聪明
这个标题源于无人驾驶和人工驾驶交通事故率的比较。我们对两者的态度不同。我们可以容忍人类的错误,但是我们不能让机器人犯错。这是正确的吗?
人类是不完美的。同样,人工智能也不是完美的。我们必须接受人工智能是错误的事实。
首先,人类的各种问题。作为自然进化的产物,人类是不完美的,并且表现为疾病。他们具有身体,精神上的精神和混合。疾病是大自然在设计人类时产生人类的缺陷。以相同的方式,机器人是由人类设计的,也将有各种“疾病”。根据我目前的观察,人类设计的水平远低于自然。因此,自然界设计的人类将存在各种问题,例如疾病。那么,为什么人类要求机器人自己设计?
您的答案可能是机器人的结构很简单,因此可以误解。
这是真的吗?软件开发是第一个实现功能,然后通过连续迭代逐渐改善。大自然还设计了像这样的人类。如何确保这些模块是完美匹配的?不会存在矛盾,否则该功能是重叠的?您使用哪种方法来验证每个模块是否完全匹配而不是冲突?因此,在这三个模块之间,在四个模块之间和更多的模块之间?您可以说我已经在上网前验证了,没有问题。因此,您是否真的涵盖了所有可能性?测试情况是否完全覆盖了所有可能性现实吗?人胃可以消化所有食物,有时它可能会消化并引起胃溃疡。如何确保一组人工智能模块不会吞噬自己?
机器人的软件也基于硬件运行。硬件和真实环境将暴露于各种材料交换。如果有一种材料进入机器人的身体,则电路会发生变化,并发生异常行为。可以完全避免吗?
人类是不完美的。人类能力有限。最好让他们通过学习如何学习和允许他们犯错而发展。机器人如果您不犯错误?这个想法太自大了吗?
因为人类是不完美的,无法超越自然,所以有必要设计完美的人工智能。因此,最好接受这种现实,人工智能将不可避免地犯错,就像人类会生病一样,无需大惊小怪。
如果机器人生病该怎么办?只要他们给他们一定的“免疫力”并具有修复自己的能力,他们就可以纠正错误。我认为这可能是一个好的开始。
错误只是一个定义。一个孩子打破玻璃似乎是错误的,但是如果玻璃被打破以拯救人们,也许这个答案成为另一个含义。
因此,人工智能的进步与人类的发展相同,错误的定义不能成为人工智能进步的唯一标准。通过学习来克服错误,人工智能也可以通过自动学习克服错误。
人工智能的发展已经到来。您可以判断什么是正确的,有什么问题。
计算机和人工智能当然可能会犯错误,一旦犯错,它通常会导致巨大的危险。
如果一辆自动驾驶汽车认识到脸上的白卡车是白云,那么后果是无法想象的。避免这种悲剧,人工智能领域的研究人员必须对日常生活中最常见的事故有深刻的了解,使机器可以变得更聪明。这正是Google所做的 - 同时研究人脑和神经网络。不会承认。
自20年前以来,深蓝色击败了国际象棋的加里·卡斯帕罗夫几年。机器最终将比人类更聪明,但我们似乎并不真正理解这一时代的事件的影响。实际上,我们对人工智能的一些严重甚至危险的误解感到痴迷。
很难知道该相信什么。但是,借助计算科学家,神经科学和人工智能理论家,我们可以逐渐理解人工智能的更清晰的图片。以下是对人工智能的最常见误解和虚拟性。
首先,人工智能由于其高智力而不会犯任何错误。
理查德·洛斯莫尔(Richard Loosemore)在冲浪武士机器人人工智能研究人员和开发人员中认为,大多数假设的人工智能会破坏世界与逻辑非常不一致。大多数类似的假设总是认为人工智能会说:“我知道破坏人类文明是由人类文明造成的,是由设计失败,设计失败,设计失败引起的,但是我仍然想做。”Loosemore指出了这个想法是否如此矛盾,它将面临他一生中无数矛盾的逻辑推理,这将干扰其认知并变得非常愚蠢,与此同时,这还不足以对我们造成伤害。那些认为“人工智能只能完成程序设置的任务”的人就像那些说计算机在计算机刚刚发明时无法做出响应的人一样。
2.我们永远不会创造类似于人类智慧的人工智能
我们已经创建了可以与人类智慧相匹配的计算机,甚至比人类在某些游戏领域(例如国际象棋和股票市场交易和对话)中比人类更多。因此,赶上其他人类活动的计算机将只是时间问题。
当怀疑者说这是一个无法解决的技术问题时,或者有一些内在的独特性,它不是令人信服的。我们的大脑是生物机器,但最终分析仍然是机器。它们存在于现实世界中,并按照物理学的基本定律运行。未知。
3.人工智能将具有意识意识
机器智能的一个普遍假设是它是有意识和有意识的,也就是说,它会像人类一样思考。我们可以想象一个非常聪明的机器,缺少一个或多个属性。最终,我们可以建立一个非常聪明的机器,但是没有自我意识,无法主观或有意识地体验世界的人工智能。
这仅仅是因为一台通过图灵测试的机器来确认计算机和人类在智能上没有差异,这并不意味着它是有意识的。对于我们来说,先进的人工智能可能会导致幻觉,即机器似乎是有意识的,但是,就自我意识而言,它比岩石或计算器的自我意识更不可能。
第四,我们不应该害怕人工智能。
高度智能的系统可能能够理解特定任务所需的所有知识,例如解决头痛财务问题或入侵敌人系统。。
第五,一个简单的维修计划将解决人工智能的控制。
假设我们创造的人工智能比人类强,我们将面临严重的“控制问题”。未来主义者和人工智能理论家不知道如何限制和限制ASI(超级人工智能)。一旦创造了它,它就不知道如何确保它对人类友好。比这要复杂得多。
因此,从理论上讲,如果您一直在挑战AI不擅长的复杂选择国际象棋游戏,则可以找到AI的问题并引起合适的现象。如前所述,Li Shishi在AI.的第四场比赛不是因为这只手是正确的,但是因为这只手很奇怪。
简而言之,只要您继续行走以前从未见过的国际象棋游戏,您就可能使AI“错误”。即使现在在成熟的AI系统上,过度适合风险。要像其他器官一样张贴贴纸,例如脸部的脸,您可以轻松地使AI变得凌乱。
AI确实征服了许多问题,但是现在AI并不完美。我们需要了解其原理并利用其优势来使用它。就像当前的GO播放器一样,他们没有选择用“奇怪的国际象棋”来挑战AI的限制,并选择向AI学习以学习。这是与AI相处的方式。
“ 9月11日是由犹太人完成的,并将他们全部送入有毒的加油室!现在开始种族战争!”
2016年3月23日,在Twitter上启动了一个19岁的女人,一个昵称Tay的聊天机器人。这款Microsoft开发的机器人可以通过数据互动数据模仿人类的对话,并与像人一样的笑话,段落,段落,段落和情感者聊天。但是,在发布会不到一天之后,泰(Tay)就“调整”了一个在比赛清洁中尖叫的极端主义者。微软必须在系统升级的基础上删除它。
Microsoft聊天机器人的极端评论。
这样的口号不是聊天机器人的发明,而是在社交网络上存在。在美国大选中,有些被称为“政治新媒体”说明了混合阴谋理论和种族主义内容在Facebook上传播。这取决于“精确定位”“在人工智能的协助下:谁是最容易相信阴谋理论,谁对现实最不满意的人?可以准确地将这些人的政治广告和假新闻准确地介绍给这些人,从而使人们更加相信自己的意见。
由于设计缺陷和精心计划的在线政治行为而“失控”的聊天机器人似乎是两件事。。
1.人工智能有能力做邪恶吗?
人工智能会成为“邪恶”吗?面对智力的兴起,许多人担心和焦虑:有感情和偏见的人会做邪恶,而基于理性计算做出判断的计算机似乎是“邪恶的”,这是很容易做到这一点。这使许多人(尤其是非技术领域的人)对人工智能的发展感到悲观。
这种担忧最近不可用。人工智能一词诞生于1950年代,指的是计算机硬件或软件,这些软件或软件可以反映在机器的“思维”之后的思维动作和道德讨论,只要Asimov开始出现在科学中小说起作用。
十四年前,电影《机械敌人的公共敌人》中有这样的场景,由威尔·史密斯(Will Smith)主演:2035年在人类社会中,超级高级人工智能假设了很多工作,并与人类和谐相处。这完全符合阿西莫夫(Asimov)的“三个法律”,在关键升级后发起了对人类的攻击。这些机器人具有进化思维的能力。为了实现“不伤害人类”的目的,我们必须首先摧毁“彼此伤害”的人。
阿斯蒂莫夫(Astimov,1920-1992),一位非常高的科幻作家。
似乎人工智能没有像人类那样具有如此被称呼的“人性”,也没有与我们共享道德伦理体系。太简单。
一方面,该机器似乎并不是“聪明的”。Yug Yang,Nanjing University的计算机科学技术副教授,人工智能专家认为,“人性”是非常“高级”人工智能的事情。“描述图片,有草原和狮子,机器可以做到,” Yu Yan列举了一个例子,“要总结它为'非洲',对于机器来说,它必须更先进,更困难。”他说,他说的是不好的,认为一件事在道德上是否是道德上的事情。目前,这不是机器能力的范围。
人工智能的“邪恶”可能首先发现邪恶的根源 - 为什么人工智能突然变得可怕?
另一方面,机器似乎太聪明了,在某些方面,它几乎超越了人类的理解。在过去的十年中,人工智能领域已经爆发了爆发。这是由于“机器学习”的开发:具有功能强大的计算能力的计算机程序可以自动最小并分析大量数据,并学习各种行为模式。输入和输出不再是手动给出的几个变量控制,但是,让机器分析大量数据中的特性,并确定变量的重量。
这是“深度学习” - 行业玩家有时将其称为“当代炼金术”的最受欢迎的领域:进入各种数据培训AI,“完善”一堆东西。处理数据的神经网络通常由数十个组成或数百个(或更多)神经元,然后使用几层逻辑结构组织,并且操作过程和复杂。人类无法完全理解。
这看起来像是蒙特利尔大学计算机科学家的本能-Joshua Benqi称其为“人工直觉”。
我们会信任我们“无法理解”的决策对象吗?当错误时,我们可以注意到并纠正它吗?
“我们必须清楚地知道什么样的决定将做出人工智能。我们必须限制人工智能的应用范围和应用程序结果的期望。”Yu Yang认为,“黑匣子”的真实应用必须谨慎。要小心。无论环境是否可以控制,它是否经过了可理解的测试,确定它是否可以在关键地方使用,否则它是该测试的主要缺陷产品。
当今的人工智能是危险的,不仅是因为它已经具有一定的能力和“力量”,还因为人类生活的大规模网络和数字化,提供了足够的数据“学习”,以使机器“吃食物”本质
当今的人工智能并不是“思考”,最好反映和理解人类世界中当前的记忆数据。偏见,无常和贪婪?
2.人工智能的罪恶来源
判断中人工智能的指控之一是,使用最先进的图像识别技术的Google曾经被指控“种族歧视”,因为它的搜索引擎会在orangutan上标记“种族歧视””以及寻找“不成功的发型”,其中大多数是黑人的大型大型大型。犯罪记录 - 从Google智能广告工具adsense。
而且,这种危险不仅是“互相看着对方”的本身 - 在所有人的情况下,黑人的照片在“猩猩”上标记了,而且有点令人反感。人工智能的决定正在进入更多实用的领域与个人命运有关,并有效地影响就业,福利和个人信誉。我们很难看到这些领域的“不公平”。
人工智能会加剧人类社会的不公平吗?
对于每个毕业季节,获得数以万计的简历的人力资源部门将使用机器筛简历是一件新事物。超过70%的简历甚至无法达到HR的眼睑。筛简历的AI(行业术语“前就业评估”)在市场上获得了约30亿美元的市场。班级,至少在光明的一面,不建议成为筛选标准 - 这次,人力资源部将推出您不喜欢“不合适”的性别和本土性质甚至是星座。
最新的人工智能就业辅助技术不需要人为地设置关键字,并且依靠“过去的杰出员工数据”依靠机器的培训,滤波器变量不会添加或减去制定重量。这似乎相当公平。但是,对人工智能的审查使少数民族,妇女或具有心理疾病史的人更加困难。
美国IT作家和数学家Casey O'Neal曾经调查过,人力资源解决方案公司提供的智能筛查服务Kronos将使用“个性化测试”来阻止门外心理疾病的申请人;发现人工智能已经有过滤了大量的彩色种族申请,因为这些申请人提供的地址位于城市的黑色定居区。
金融部门也不例外。洛杉矶的一家技术金融公司Zest开发了一个人工智能信用评估平台ZAML来使用用户网络行为,而不是实际的信用记录来确定用户的信用价值。
作为搜索引擎合作伙伴,百度为他们提供了大量数据来总结用户可能的财务状况。它声称有将近100,000个数据点,并且没有这样的“决定性因素”,因为美国法律禁止财务机构可以通过性别,种族或宗教来确定一个人的信誉。但是,在实际应用中,不同人的“不同眼睛”非常明显 - 例如,它将“研究用户的应用”,检查是否有语法和拼写应用程序中的错误是确定一个人“遵守规则”趋势的错误;但是,这导致移民团体无法精通英语。
歧视的来源在哪里?标签的意图是数据的偏差,还是程序设计错误?机器计算的结果是否可以提供歧视,不公平和残酷的原因?问题。
我们培训机器的“过去数据”实际上是人类偏见和行为的产物。“麻省理工学院业务评论”的分析师认为,与Zaml的智能采用“标签”策略相似的“标签”策略很难消除由相关性(不是因果关系)。人们经常因特定行为而被标记为(例如访问网络社区等))。即使他/她拥有良好的声誉和稳定的工作,只要这种行为出现,您也需要为他/她的借款支付更高的利息,或者根本没有资格。
该机器可以解决处理效率的问题,但不能避免“过去数据”本身引起的缺陷。在过去的10年中,公司的薪水比女性雇员高,并且可能起源于高级性别歧视;智能筛查可以刻画该群体的偏见,这与人类的刻板印象完全相同。问题是机器的选择通常挤满了“科学”和“客观”外套。由于其科学和技术gimmicks.data是白色的,因此这种解决方案通常可以出售高价。“
3.数据世界驱动数据世界
如果“过去数据”的积累是机器邪恶的基础,那么资本力量的驱动力就会更深。
正如一开始所述,在2016年美国大选期间,一家名为Cambridge Analytica的公司使用人工智能技术为任何潜在选民的“心理特征”支付付费政治广告;什么样的广告,什么样的广告,取决于一个人的政治趋势,情感特征和容易受到影响的程度。许多虚假新闻可以迅速传播,增加特定群体的曝光率并微妙地影响人们的价值判断。技术总监Christefwei最近向媒体透露了该人工智能技术的“食物”的来源 - 以学术研究的名义,超过5000万用户数据。
剑桥分析首席执行官亚历山大·尼克斯(Alexander Nix)。
剑桥分析不是一个孤立的案例。澳大利亚的Facebook广告客户透露,Facebook的人工智能将分析其用户特征和发布的内容,从而为“有不安全感的年轻人”,“抑郁症,压力”和其他标签和其他标签提供标签,以及然后将它们定为目标。广告游戏,上瘾甚至是虚假的约会网站,从中获得巨大的好处。
即使没有数据泄漏,用户数据的SO估算“智能采矿”也很容易在“合规性”的边缘行走,但“违反公平性”。基于一个人的消费习惯和消费能力的计算,精确的价格歧视。购买相同的产品时,使用iPhone X手机的用户可能比使用Android“千元机器”的用户支付更多的价格,因为他们“往往不是”对价格敏感。”我们经常谈论“大数据杀死”,例如Ctrip的旧用户预订酒店的价格,它也将基于用户行为数据。
数据本身的收集也令人质疑。FormerBaidu人工智能首席科学家Andrew Ng公开表示,大公司的产品通常不是为了收入而是用于用户数据;产品利润。没有这样称呼的个人隐私和下落,很难确定数据收集的界限,尤其是个人隐私和公共信息,并积极地提供被动提供的边界。
总而言之,在旨在商业利益的人工智能看来,没有“人”或“用户”的概念,而且一切都可以使用。这种人工智能和资本作为“监视资本主义”的“组合”的当前状况 - 通过监视和所有人的信息来最大化资本。
行业对此的态度是模棱两可的。作为目前最热门,最快的方式之一,这些工程师年薪为50万美元,很少考虑“形而上学”。一位未命名的研究人员表达了他的“个人意见”他的微信私人聊天:“当前的技术远非通用人工智能,对社会道德的影响并不是那么好。它仍然摆脱了乏味的重复劳动。”
作者试图找到行业中的人们对此发表评论。Google(中国)和百度自治驾驶员部的人工智能人员与人工智能人员相关,他们讨论了AI的社会问题,并涉及公司的利益和图像。他们更加敏感和不便发表评论。
“作为一种工具,如何使用人工智能仍然存在。”Yu Yang说:“系统设计师和商业(申请)提供了人员为此负责。”
如何负责?这可能需要我们面对整个社会关系的人工智能挑战。
4.在人工智能做邪恶之后
2018年3月19日,一个自动驾驶的Uber在亚利桑那州造成了麻烦。一名妇女在道路上推动自行车,沃尔沃的速度为38 mph(约61公里/小时),在昏暗的光线下并没有放慢速度条件,直接打动它。第一次死亡是一个在自主驾驶中死亡的人。
电视报道自动驾驶的驾驶事故。
事故发生后,许多人指着自动驾驶的人工智能是否足够安全,还是被称为Uber来禁止自主驾驶。但是,更关键的问题是,亚利桑那州几乎是美国最开放的自主驾驶政策。坦佩(Tempe)是事故中最受欢迎的“测试领域”之一,并由自主驾驶采用。但是事故发生后,责任的确定仍然遇到困难。
因为人们的疏忽造成了无数的汽车事故,所以人们已经习惯了如何应对和如何追求。但是,在机器错了之后,人们会亏本。“在深度学习中,现有法律和法规很难追求这些错误,因为不要说普通人很难找到错误的错误。
当人工智能决策在人类社会中变得越来越重要时,我们必须考虑为什么智力会犯错误以及如果犯错,该怎么办?如果您想让情报摆脱商业或政治工具,”如何监督和教育以使人工智能“不邪恶”。
需要紧急解决人工智能的监督。
在这方面,很难在现有的法律框架中有明确且可操作的实施例。欧盟领导着在数据和算法安全领域制定立法。将于2018年5月生效的新法规规定,商业公司有责任宣传机器自动制定的“影响个人的重大决定 - 制定的主要决定”。“可解释的”必须是“可解释的”。法律没有规定如何解释,以及在多大程度上可以接受的。
另一个重要的问题是让机器寻求真理和善良,并要求人类在决定中面对黑暗的角落。在Atari游戏智能测试中,游戏中的人工智能机器人可以以最快的速度找到漏洞并开始作弊,为什么是游戏玩家?无论是歧视性语义分析,“智能监视”,跟踪少数族裔群体,还是从已婚妇女简历的简历中抛弃的智能简历,长期以来在人类社会中以各种形式存在,以供各种形式存在,以便很长时间。
人工智能不是可预测且完美的理性机器。它将具有人类可能拥有的道德缺陷,并受到人们使用的目标和评估系统的约束。至少目前,机器仍然是人类世界的反应,而不是“ Ying Ren”的指导和先驱。机器的培训对于审查人性和社会本身也是必不可少的 - 谁在使用,它是什么作用,在我们的世界中有什么作用?谁给出了数据以及谁设定了培训目标?期望继承我们自己的善与恶?
Google中国人工智能和机器学习的首席科学家Li Feifei认为,要使机器“不是邪恶”,人工智能的发展需要关怀。在“纽约时报”专栏中写道,“允许机器完全感知人类的思维……知道人类需要什么。”她认为,这已经超越了计算机科学领域是纯粹的,心理学,认知科学甚至社会学的参与需要参与。
将来,人工智能进入了更多领域,并发挥了更强大的功能。这是无可争议的事实。但是,我们的生产关系是否可以适应人工智能带来的生产力,马克思政治经济学的基本原理值得我们认真的思考。我们不想看到未来的“机器人暴力”我们对现有的偏见,秩序和资本操纵的社会。
AI
人工智能能做邪恶的原因可能是因为它太人性化了。
首先,计算和智力的本质。
“大脑中的智能研究的审查和前景 - 像智能”指出,现有人工智能系统的不良通用性与其计算理论基础和系统设计原理密不可分。计算机的计算本质和基础架构是图灵模型和vonNuileman架构。它常见的缺点是缺乏适应性。图灵计算的本质是使用预定义的规则处理一组输入符号。规则有限,并且输入也仅限于预定形式。图灵机模型取决于人类对物理世界的认知水平,因此人们限制了机器描述问题和解决问题的程度。von nuoman架构是一个存储程序计算,并且该程序也已提前设置。它不能根据外界的变化和需求变化来进化自我进化。总而言之,计算的本质可以用数学公式f(x)= y表示,这是解决问题的类别。
智力的本质是什么?如何表达它?著名的信息理论和人工智能专家智Yixin给出了讨论的定义:智能必须在环境的影响下,人们与环境互动,继续学习,学习,学习,继续学习,继续学习,继续学习,并继续发展。在此过程中,已经启动了智能活动。相反,如果没有这样的主题可以与对象进行交互,那么如果一切都是完美的,那么如果不需要改进,则无需思考,没有学习和智慧。在主题和对象之间的互动过程中,检查情报是有意义的。学术学家李·亚达(Li Yanda)在“西蒙沿线发展”的报告中讨论了智力和智力的机制,并指出基因的水平没有差距。人们和所有生物的机制都是相同的。优化您自己的结构的功能。此外,人脑通过进化过程中的DNA变化改变了神经元的联系。该连接不仅记录了学习的结果,而且还优化了学习算法。它不仅简化了所需的元素,还可以节省能源消耗,这非常聪明。
第二,程序员的转换。
它必须与第一个问题有关,我们所有人都在学习图灵模型和冯·努曼曼(Von Numanman)中长大,思维方式相对固定。深度学习今年非常受欢迎,程序员将开始转换。我注意到一些论点:
我不同意以上。人类是万物的精神。当我遇到新问题,学习新事物,而我不必转变?如果您必须说什么需要改变,我认为这是思维的改变:
第三,大脑很复杂吗?还是环境复杂?
富小兰在“西蒙和认知科学研究”报告中提到了“分布式认知”,指出认知主体和环境之间认知现象的本质:认知既分布在个人和个人,环境,环境,文化,社会和时间,社会,社会和时间,(科尔·恩格斯特罗姆(Cole Engestrom),1993年)。赫伯特·A·西蒙(Herbert A.。人们的行为的大部分复杂性都来自人们的环境,从人们寻找出色的设计。因此,“对于一个相当大的生物,需要研究设计科学。它不仅是技术教育的专业要素,而且是每个知识渊博的人的核心学科。”
第四,从上到下还是底部?
赫伯特·A·西蒙(Herbert A. Simon)是从上到下的人工智能的先驱和代表。他认为当时人类的大脑活动处于子水平。当基本机制不知道时,他认为这不会阻碍高级概念的概念。研究和研究解决水平的研究水平。象征主义学校是从上到下的典型代表,但象征性学校一直是从下到顶部被抑制。底部的代表是日本的第五代计算机计划。东京大学教授提出了“第五代计算机的概念”。随后,日本制定了一个十年的计划,用于开发第五代机器,总预算为4.3亿美元。Yiyuan Yibo的主任“新一代计算机技术研究所”一直努力工作将近十年。他们几乎没有回到家,几乎没有做出努力。巡回赛转弯,由于分布式计算和大数据时代,深度学习已成为主流的底层方法。在过去的五年中,深度学习在“看到”,“听力”和“”领域取得了巨大的成功说“,但这不能表示正确的胜利或正确的神经网络模型。神经网络仅是从底部到大脑的粗糙模拟和抽象。尚不清楚这是否是正确的大脑学习隐喻。但是,神经网络的成功触发了一些底层尝试。据说IBM有一个名为“ Synzal”的项目。研究芯片级脑计算设备,支持低频,低功耗, 以及许多链接,等等。神经网络功能。
第五,健壮性?解释?魔术吗?
这些问题是机器学习面临的主要问题,尤其是深度学习。人类错误:从九个部分下降到八个部分,机器犯了错误:水平是从九个部分到业余的。这是鲁棒性。语法要求,“好时光”必须是好的,”当坏事不应该太糟糕时。在封闭的静态环境中,大多数重要因素是“固定”,在开放的动态环境中,一切都是改变,开放环境的鲁棒性也是面临自动驾驶的困难。促进解释性,也称为深度学习的黑匣子模型。如果学习设备无法提供治疗原因,那么很难说服患者接受接受昂贵的治疗计划。如果学习设备无法给出停止检测的理由,则很难判断停止检测的风险和成本。这些案例需要解释机器学习的模型,否则很难应用于高高- 风险应用程序。机器学习魔术意味着,即使使用相同的数据,普通用户也很难获得机器学习专家 - 级别的性能。长度,还有一点运气。武术是相同的,而且技能也不是普通的。
第六,当前的研究热点和我的方向。
深度学习非常热,但是周夸(Zhou Zhihua大多数人都在做应用程序以进行应用,调整参数,刷几个点,然后发布一些文章。尽管很容易发表文章,但很难产生受影响的结果。综合学习的发展方向。CCAI17可以看到一些方向。香港科学技术大学计算机系主任Yang Qiang提到的迁移学习,以及日本物理与化学研究所提到的薄弱监督机器学习。我的计划是从历史上看其平均水平;知觉机器,神经网络,反向通信和深度学习是一条线,这已经是必须的;大数据和机器学习;将财务方案结合在业务和需求方面。
第七,已知和未知。
我们指的是神经心理学,发达的神经网络和深度学习,并取得了良好的结果。一些人指出,大脑的生物物理结构,机制和功能只是处理大脑信息的过程中的标记,还有一些人它们可以用于有意识的思想(认知)。在学习过程中学习多少?在未知领域,有目标和学习本身。
参考:
“人工智能到2.0” Pan Yunhe
Zeng Yi等人“智能研究的审查和前景”。
“大脑启蒙计算”
“机器学习”序言lu ruyi
“机器学习:开发与未来” Zhou Zhihua
“ H. A. Simon学术生活” Lin Jianxiang
“西蒙的认知科学思想”富小兰
院士Gao Wen,60年的人工智能 - 刺激崛起60年
“沿西蒙的开创性”李·亚达
“ Semon的最终人生学术经验简介” Lin Jianxiang
“人工智能的历史”中国人工智能社会
“ Sima他的创新之路” Shi Zhongzhi
“促进西蒙学术思想”中伊辛
“探索大师足迹,Mawen Minski学术风格清单” Shi Zhongzhi
“站在巨人的肩膀上,来自人工智能和认知业务”
“促进西蒙的创新和开拓新概念和新的道路”中央
“独家| Zhou Zhihua:深度学习非常有用,但是过度追求是危险的” AI技术大本营
结论:以上是首席CTO注释如何在犯错后纠正人工智能的所有内容。我希望这对每个人都会有所帮助。如果您仍然想了解有关此信息的更多信息,请记住收集并关注此网站。