当前位置: 首页 > 科技观察

人工智能的未来:人工智能将如何改变世界?

时间:2023-03-13 13:01:50 科技观察

在芝加哥市中心附近一座不起眼的建筑中,MarcGyongyosi和IFM/Onetrack的工作人员正在成长,并且不断壮大。人工智能有一个基本原则:简单思考。这些话用简单的字体写在一张纸上,贴在他们两层工业建筑上方的后墙上。然而,他们在这里用AI做的事情并不简单。AI的未来AI正在塑造几乎每个行业的人类未来。它已经是大数据、机器人和物联网等新兴技术的主要驱动力,并将在可预见的未来继续充当技术创新者的角色。使用机器学习和计算机视觉来检测和分类各种“安全事件”,这个鞋盒大小的设备并没有检测到所有这些事件,但它检测到了很多。诸如驾驶员在操作车辆时的表情、他的驾驶速度、他驾驶的位置、他周围的人的位置以及其他叉车操作员如何操作他们的车辆。IFM的软件自动检测安全漏洞——例如使用手机——并通知仓库经理,以便立即采取行动。这样做的主要目的是为了防止事故和提高效率。Gyongyosi声称,只要知道IFM的一个设备正在观看就会产生“巨大的影响”。Gyongyosi说:“如果你想想相机,它真的是我们目前可用的最丰富的传感器,而且价格非常有趣。如今智能手机、相机和图像传感器变得非常便宜,但我们捕捉了很多的信息。从一张图像中,也许可以推断出25个信号;但六个月后,我们可以从同一张图像中推断出100或150个信号。唯一的区别是查看图像的软件......每个客户都可以从每个随着我们的系统开始看到和了解更多流程并检测更多重要和相关的内容,从其他客户中受益。”AIIFM的演变只是这个不断发展的领域中无数AI创新者之一。例如,在2021年授予IBM发明家的9,130??项专利中,有2,300项与人工智能有关。特斯拉创始人兼科技大亨埃隆·马斯克(ElonMusk)向非营利研究公司OpenAI捐赠了1000万美元,以资助正在进行的研究。在经历了以“知识工程”开始并以零星休眠为标志的几十年的进化时期之后,该技术发展为基于模型和算法的机器学习,并且越来越受到关注关于感知、推理和归纳。现在,人工智能以前所未有的方式回到了中心舞台,而且不会很快淡出人们的视线。为什么人工智能很重要?人工智能很重要,因为它是计算机学习。借助人工智能,计算机能够利用大量数据并利用其习得的“智能”做出最佳决策和发现,所需时间仅为人类所需时间的一小部分。AI将改变哪些行业?现代人工智能——更具体地说,是“狭义人工智能”。它使用经过数据训练的模型来执行目标函数,通常属于深度学习或机器学习的范畴——几乎没有一个没有受到影响的主要行业。在过去几年尤其如此,由于物联网的强大连接性、连接设备的激增以及更快的计算机处理速度,数据收集和分析急剧增加。一些行业才刚刚开始他们的AI之旅,其他行业则是经验丰富的旅行者。两者都有很长的路要走。无论如何,人工智能对当今生活的影响不容忽视。交通:虽然完善它们可能需要一些时间,但自动驾驶汽车总有一天会把我们从一个地方带到另一个地方。制造:人工智能驱动的机器人与人类一起工作,执行有限范围的任务,例如装配和堆垛,并使用预测分析传感器保持设备平稳运行。医疗保健:在人工智能相对较新的医疗保健领域,可以更快、更准确地进行疾病诊断,加速和简化药物发现,虚拟护理助理监控患者,大数据分析有助于创造更加个性化的患者体验。教育:教科书在人工智能的帮助下数字化,早期的虚拟导师协助人类导师,面部分析测量学生的情绪以帮助识别谁在挣扎或无聊,并更好地根据个人需求定制体验。媒体:新闻业也在利用人工智能并将继续从中受益。Bloomberg使用Cyborg技术帮助快速理解复杂的财务报告。AssociatedPress使用AutomatedInsights的自然语言功能,每年产生3,700个有利可图的故事,几乎是过去的四倍。客户服务:最后但并非最不重要的一点是,谷歌正在开发一种人工智能助手,它可以像人类一样打电话和预约,比如与附近的美发沙龙预约等。除了语言之外,该系统还能理解情景背景和细微差别。但这些进步——以及许多其他进步——仅仅是个开始。将来还会有更多。客户关系管理公司4Degrees的首席技术官兼联合创始人大卫·范德格里夫特(DavidVandegrift)表示:“我认为任何认为智能软件的功能会在某个时候达到极限的假设都是错误的。“随着公司每年在AI产品和服务上花费数十亿美元,而谷歌、苹果、微软和亚马逊等科技巨头也花费数十亿美元来创建它们,大学正在使AI成为他们课程中更重要的部分。很大一部分,和随着美国部门加强其人工智能游戏,大事必然会发生。其中一些发展正在走向完全实现;有些只是理论上的,而且可能永远都是。所有这些都是破坏性的是的,无论是为了更好还是为了更糟糕的是,目前还看不到经济衰退的迹象。谷歌前负责人、百度首席科学家吴恩达在接受ZDNet采访时表示:“很多行业都会经历这样一个模式:冬天、冬天,然后是永恒的春天。.我们或许正处在人工智能的永恒春天。“人工智能对社会的影响人工智能将如何改变工作在西北大学的一次演讲中,人工智能专家李开复提倡人工智能技术及其迫在眉睫的影响,同时也指出人工智能的副作用和前者的局限性,它警告说:“底层90%的人口,尤其是世界上收入或受教育程度最低的50%人口,将因失业而受到不成比例的伤害……一个简单的问题,‘该计划如何运作?什么?’这就是人工智能的可能性代替工作,因为人工智能可以在日常任务中学习自我优化。数字越大,工作就越没有人情味,比如把东西扔进垃圾桶、洗碗、摘水果、??接听客服电话——都是脚本化的任务重复和常规。在5年、10年或15年内,它们将被人工智能取代。“在拥有超过100,000个机器人的在线巨头和人工智能巨头亚马逊的仓库中,功能采摘和包装仍然由人类完成,但这种情况将会改变。Lee的观点最近得到了Infosys总裁MohitJoshi的回应,他告诉《纽约时报》:“人们想要成就伟大的事情。早些时候,他们的增量目标是裁员5%到10%。现在他们就像,‘为什么我们不能对我们中的1%人做这件事?’”李以更乐观的态度强调,今天的人工智能在两个方面毫无用处:它没有创造力,也没有同理心或爱的能力。相反,它是一种“放大人类创造力的工具”。解决方案呢?那些从事重复性或常规工作的人必须学习新技能,以免被淘汰。亚马逊甚至向其员工提供资金,让他们接受其他公司的工作培训。伊利诺伊大学厄巴纳分校计算机科学教授兼主任KlaraNahrstedt说:“人工智能在许多领域取得成功的绝对先决条件之一是我们在教育和再培训人员上投入大量资金以适应新工作”-原野。克拉拉担心这种情况不会广泛或经常发生。IFM的Gyongyosi甚至更具体。“人们需要像学习一门新语言一样学习编程,”Gyongyosi说。“他们需要早点做,因为这真的是未来。在未来,如果你不知道如何编码,你就不知道如何编程,这只会改变。更难。”虽然许多因技术而流离失所的人会找到新工作,但这不会在一夜之间发生。正如美国在工业革命期间从农业经济过渡到工业经济一样,这在很大程度上促成了大衰退,人们最终重新回到了他们的生活中脚。但是,短期影响是巨大的。”范德格里夫特说:“工作消失和新工作出现之间的过渡并不一定像人们想象的那么容易。”NVIDIA的学习者体验设计师MikeMendelson与Nahrstedt不同,他是一位教育家。他与想要更多地了解人工智能并将其应用到业务中的开发人员一起工作。“如果他们了解这项技术的能力,并且他们非常了解这个领域,他们就会开始建立联系并思考,‘也许这是一个人工智能问题,’”它说。这个问题更常见。不久的将来的人工智能在Mendelson看来,一些最有趣的人工智能研究和实验将在不久的将来产生影响,这将发生在两个领域:“强化”学习,处理奖励和惩罚,而不是标记数据;和生成对抗网络(简称GAN),它允许计算机算法创建而不是仅仅通过让两个网络相互对抗来进行评估。前者的典型代表是谷歌DeepMind的AlphaGoZero的围棋能力为例,后者其他人则举了基于对特定主题(例如名人或特定类型的音乐)的学习而生成原始图像或音频的例子。在更大范围内,人工智能有望对可持续性、气候变化和环境问题产生重大影响。理想情况下,通过使用复杂的传感器,城市将变得不那么拥挤、污染更少并且总体上更宜居。“一旦预测到某些事情,就可以制定某些政策和规则,”Nahrstedt说。“例如,安装在汽车上的传感器可以发送有关交通状况的数据,这可以预测潜在的问题并优化汽车的流量。它认为,这还没有以任何方式完善。它仍处于起步阶段。但多年后,它会发挥非常重要的作用。人工智能会接管世界吗?人工智能预计将对几乎所有可以想象到的行业产生持久影响——因为预计60%的企业将受到人工智能的影响。我们已经在智能设备、汽车、医疗保健系统和最流行的应用程序中看到了人工智能。在可预见的未来,我们将继续看到它的影响更深入地渗透到许多其他行业。人工智能和隐私风险当然,人工智能对大数据的依赖已经在很大程度上影响隐私。只要看看CambridgeAnalytica在Facebook上的恶作剧或亚马逊对Alexa的窃听,这是技术失控的众多例子中的两个。批评者认为,如果没有适当的监管和自我施加的限制,情况可能会变得更糟。2015年,苹果公司首席执行官蒂姆库克嘲笑竞争对手谷歌和Facebook贪婪的数据挖掘。“他们正在尽其所能地了解你,并试图从中获利。我们认为这是错误的,”库克在2015年的一次演讲中说。后来,在比利时布鲁塞尔的一次谈话中,库克详细阐述了他的担忧。“通过收集大量个人数据来推进人工智能是懒惰,而不是效率,”库克说。“要让人工智能真正聪明,它必须尊重人类价值观,包括隐私。如果我们弄错了,危险将是深远的。”许多人同意。2018年,总部位于英国的人权和隐私组织Article19和PrivacyInternational发表了一篇论文,称对人工智能的担忧仅限于其日常功能,而不是灾难性的变化,如机器人霸主的出现。作者写道:“如果以负责任的方式实施,人工智能可以造福社会。然而,与大多数新兴技术一样,商业和国家使用确实有可能对人权产生不利影响。”作者承认收集到的大量数据可用于以良性方式预测未来行为,例如垃圾邮件过滤器和推荐引擎。但也存在一个真正的威胁,即它会对个人隐私和权利产生负面影响免于歧视为人工智能的未来做准备人工智能的可能性2018年底,国际知名人工智能专家斯图尔特·罗素在威斯敏斯特大教堂发表演讲时开玩笑(或不开玩笑)说,他与记者达成了正式协议除非他们同意不将终结者的机器人放在文章中,否则不会与它交谈。它的单行字显示出对好莱坞对遥远未来人工智能的刻画的明显蔑视,这种刻画往往过于紧张和世界末日。Russell所说的“人类级别的人工智能”,也被称为通用人工智能,长期以来一直是幻想的东西。但在短时间内实现或根本实现的可能性很小。“在我们实现类人人工智能之前,需要取得许多重大突破,”拉塞尔解释说,并指出人工智能还不能完全理解语言。这表明了当前人类与人工智能之间的明显区别:人类可以翻译并理解机器语言,而人工智能无法翻译人类语言。然而,如果人工智能能够理解我们的语言,那么人工智能系统就可以阅读和理解所有书面文字。“一旦我们拥有查询所有人类知识的能力,它将能够综合、整合和回答人类从未回答过的问题,”拉塞尔补充说:“因为它不阅读,也不具备能够将历史上一直分离的事物之间的点聚集在一起并联系起来。”这给了我们很多思考。就此而言,模拟人脑极其困难,这也是AGI的未来仍处于假设状态的另一个原因。密歇根大学长期工程和计算机科学教授约翰·莱尔德(JohnLaird)进行了Laird在谈到很大程度上受人类心理学启发的工作时说:“我们的目标是尝试构建我们认为是智能系统固有的认知架构。”“例如,其中一件事我们知道,是的,人脑不仅仅是一组同质的神经元。它是由不同的组成部分组成的真实结构,其中一些与如何在世界上做事的知识有关。”这称为程序记忆。还有基于一般事实的知识,语义记忆;以及关于以前经历(或个人事实)的知识,称为情景记忆。Laird实验室的一个项目涉及使用自然语言指令教机器人简单的游戏,例如国际象棋和拼图。这些指令通常包括对目标的描述、法律措施和失败的概述。机器人将这些指令内化并使用它们来计划自己的行动。然而,一如既往,突破需要时间——比莱尔德和他的同事们预想的要慢。“每次我们取得进展,”莱尔德说,“我们也对这有多么困难有了新的认识。”AGI对人类构成威胁吗?许多人工智能领域的领军人物都认为,有些人夸大了梦魇般的场景,其中包括所谓的“奇点”,其中超级智能机器接管了人类,通过奴役或消灭人类来接管并永久改变人类的存在。已故理论物理学家史蒂芬霍金提出了一个著名的假设,如果人工智能本身着手设计比人类程序员更好的人工智能,结果可能是“机器比我们聪明,比蜗牛聪明”。ElonMusk认为并警告说,AGI是对人类生存的最大威胁。它说,实现这一目标的努力就像“召唤魔鬼”。他甚至担心他的朋友和谷歌联合创始人拉里佩奇可能会无意中引导一些“邪恶”的东西出现,尽管他的意图是好的。例如,“一支能够毁灭人类的人工智能增强型机器人舰队”。就AI预测而言,即使是IFM的Gyongyosi也不是危言耸听,他也没有排除任何可能性。在某个时候,人类将不再需要训练系统;他们将自己学习和进化,它说。“我不认为我们目前在这些领域使用的方法会导致机器决定杀死我们,”Gyongyosi说。处理这些事情的不同方法和方法。虽然杀人机器可能仍然是虚构的东西,但许多人相信它们将以各种方式取代人类。牛津大学人类未来研究所公布了一项人工智能调查的结果。标题为“AI何时会超越人类表现?来自AI专家的证据”,其中包含352名机器学习研究人员对未来几年AI发展的估计。这个群体中有很多乐观主义者。受访者中位数受访者表示,到2026年,机器将能够撰写学校论文;到2027年,自动驾驶卡车将不再需要司机;人工智能可能成为下一个斯蒂芬·金;到2053年,它可能成为下一个CharlieTeo。最令人震惊的是:到2137年,所有人类工作都将实现自动化。但是人类自己呢?毫无疑问,喝的是机器人端来的Umbrella饮品。西北大学教授、分析科学硕士项目的创始主任DiegoKlabjan认为自己是AGI怀疑论者。“目前,计算机只能处理10,000多个单词。所以,有数百万个神经元。但是人脑有数十亿个神经元,它们以一种非常有趣和复杂的方式连接在一起,而当前最先进的技术只是以非常简单的模式将它们连接起来。因此,使用当前的硬件和软件技术,从几百万个神经元到数十亿个神经元,我认为这不会发生。我们将如何使用AGI?Klabjan也不太相信极端情况——比如,杀人机器人将地球变成阴燃的地狱。它更关心的是机器——比如战争机器人——被邪恶的人类灌输了错误的“动机”。麻省理工学院物理学教授、人工智能首席研究员马克斯·泰格马克(MaxTegmark)在2018年的TED演讲中表示:“人工智能真正的威胁不是恶意,就像愚蠢的好莱坞电影中那样,而是能力——AI实现的目标与我们的目标不一致。这也是Laird的观点。Laird说:“我绝对看不到有什么东西醒来并决定要接管世界的情况。”我认为这是一种科学fi情节而不是未来的结局。莱尔德最担心的不是邪恶的AI本身,而是“邪恶的人类利用AI作为虚假的力量倍增器”进行许多犯罪活动,从银行抢劫到信用卡欺诈。进展速度令人沮丧,但人工智能的缓慢燃烧实际上可能是一种祝福。“了解我们正在创造什么以及我们将如何将其融入社会可能正是我们所需要的,”莱尔德说。但没有人确切知道。拉塞尔在他的在威斯敏斯特的演讲:“有sev一些必须实现的重大突破,它们可能很快就会实现。它引用了英国物理学家欧内斯特卢瑟福在1917年提出的核裂变(原子分裂)的快速转变效应,并补充说,“很难预测这些概念上的突破何时会发生。但无论何时发生,他都强调做好准备的重要性。这意味着开始或继续讨论AGI的道德使用,以及是否应该对其进行监管。这意味着努力消除数据中的偏见,这对算法具有破坏性,目前是AI的主要缺陷。这意味着努力发明和增强可以控制技术的安全措施。这也意味着谦虚地认识到仅仅因为我们可以做到并不意味着我们应该做到。“大多数AGI研究人员预计AGI将在几十年内实现,如果我们措手不及,这可能是人类历史上最大的错误。它可能导致残酷的全球独裁、前所未有的不平等、监视、苦难,甚至可能导致人类灭绝,”泰格马克在他的TED演讲中说:“但如果我们谨慎行事,我们可能会在一个美好的未来结束,每个人都会过得更好——穷人越富,富人越富,每个人都健康自由地实现自己的梦想。“