当前位置: 首页 > 技术突破

AI对社会的影响的过去十年和未来

时间:2024-02-27 18:14:48 技术突破

  人工智能(AI)是一个技术术语,指的是用于检测上下文或针对检测到的上下文的行为的工件。我们建造此类工件的能力一直在增加,随着它们对我们社会的影响。本文首先记录了我们使用AI所带来的社会和经济变化,特别是但不仅专注于自2007年智能手机出现以来的十年,这些智能手机对“大数据”产生了重大贡献,因此是机器学习的功效。然后,它来自不久的将来的政治,经济和个人挑战,包括政策建议。总体而言,AI并不像预期的那样不寻常的技术,但是这种缺乏预期的形式可能使我们面临有关熟悉挑战的紧迫性。特别是,个人和国家的身份和自主权受到知识的可访问性的提高挑战。

  介绍

  在过去的十年中,尤其是过去几年,在人工智能(AI)方面一直没有那么多的变革性,而在我们可以用这项技术方面做什么,就像我们一样吗?有些人将这个时代的到来到2007年,并引入了智能手机。如下所述,最重要的是,智力只是智力,无论是人工制品还是动物。这是一种计算形式,因此是信息的转换。由大部分社会上的大部分社会与互联网的束缚所产生的深层个人信息的聚宝盆,使我们能够通过人类大脑从人类文化中传递出巨大的明确和隐性知识,成为数字形式。在这里,我们不仅可以使用它来具有类似人类的能力,还可以通过基于机器的计算来产生进一步的知识和行为。

  几十年来,即使在该术语开始之前,随着人类考虑以我们的形象创建机器,AI都引起了恐惧和兴奋。这种期望的是,聪明的文物应该是吗?像人类一样?文物使我们大多数人蒙蔽了一个重要的事实,即我们已经取得了一段时间。尽管在人类追求中超过人类能力的突破,例如国际象棋(HSU,2002),GO(Silver等,2016)和翻译(Wu等人,2016年),但成为头条新闻,但AI一直是标准部分至少从1980年代开始的工业曲目。然后,生产规则或“专家”系统成为用于检查电路板和检测信用卡欺诈的标准技术(Liao,2005年)。同样,长期以来,诸如遗传算法之类的机器学习(ML)策略已被用于棘手的计算问题,例如调度和神经网络,不仅用于建模和了解人类学习,而且用于基本的工业控制和监测(Widrow等。,1994)。在1990年代,概率和贝叶斯方法彻底改变了ML,并为现在可用的一些最普遍的AI技术打开了大门:通过大量数据进行搜索(Bishop,1995)。该搜索能力包括对原始文本进行语义分析的能力,使Web用户仅通过仅键入几个单词来找到他们从数万亿个网页中找到的文档(Lowe,2001; Bulinaria and Levy,2007)。

  如今,在某些活动中超越人类能力方面的人工智能突破成为头条新闻,但是AI至少从1980年代开始一直是工业曲目的标准部分

  使用AI进行发现的能力不仅通过数字数据和可用计算能力的大量增加来扩展,而且还通过AI和ML算法中的创新来扩展。我们现在正在搜索照片,视频和音频(Barrett等,2016; Wu等,2016)。我们可以翻译,抄写,阅读嘴唇,阅读情感(包括说谎),伪造签名和其他手写,以及Forge视频(Hancock等,2007; Eyben等,2013; Assael等,2016; Haines et al。。至关重要的是,我们可以在实时传输期间进行实时音频/视频,使我们能够选择数百万“见证人”一词,尤其是对于像政治家等名人一样,已经有大量数据来构成准确的模型(Thies等人。,2016; Suwajanakorn等,2017)。在撰写本文时,越来越多的证据表明,2016年美国总统大选和英国关于欧盟成员的全民投票的结果都因AI检测和针对“摇摆选民”的目标而改变了,他们通过其公共社会媒体使用(Cadwalladr,Cadwalladr,Cadwalladr,Cadwalladr,2017a,b; ico,2018),更不用说网络行为中使用的AI-EAGENT工具(Brundage等,2018)。AI现在在这里,可以使我们所有人都受益。但是,它对我们社会秩序的后果不仅不了解,而且直到最近才成为研究的主题(Bryson,2015年)。但是现在,随着机器人技术的进步,AI正在以自动驾驶汽车,武器,无人机和家用设备的形式进入我们的物理空间,包括“智能扬声器”(实际上,麦克风),甚至是游戏机(Jia等人,,,,,,,,,JIA等人,,2016)。我们正被渗透性自动化感,分析和日益行动所包围。

一名男子观察在2018年10月北京安全中国公交期间,在AI Company Horizon Robotics'的人类移动的软件

  普遍的合成智能的影响已经过去了,这将是什么?社会如何调节技术改变我们的生活方式?在本文中,我首先为相关术语提供了一套干净,清晰的定义。然后,我回顾了问题,并建议对技术进行补救。最后,随着个人人类能力越来越受自动化的威胁,我提出了有关人类生命价值的未经证实的建议。

  定义

  以下定义不是普遍使用的,而是源自良好的AI文本Winston(1984)以及生物智能研究(Barrows,2000年,归因于罗马尼斯,1883年)。选择它们至少至少在本章的本地,涉及智力的现有和潜在影响,特别是在机器中。不改变行为)会更糟。然后,情报需要:

  - 感知的能力?上下文?采取行动;

  - 行动的能力;

  - 行动的能力?

  根据这个定义,植物是聪明的(Trewavas,2005年)。恒温器也是如此(McCarthy,1983; Touretzky,1988)。他们可以感知并响应上下文:例如,植物向光方向,恒温器到温度。我们进一步将系统歧视为“认知?认知系统能够学习新的环境,动作和/或关联。这更接近传统的“智能”定义。

  智力?在正确的时间做正确的事情的能力是在不做任何事情(不改变行为)的情况下会更糟的

  我在这里定义的情报是“计算”的严格子集,即信息的转换。请注意,计算是一个物理过程,不是数学。它需要时间,空间和能量。智能是将上下文转换为动作的计算子集。

  按照惯例,人工智能(AI)是用来描述(通常是数字)文物的术语,该术语扩展了与自然智能相关的任何能力。因此,例如,机器视觉,语音识别,模式识别和固定(未学习)生产系统都是AI的示例,并具有在标准AI教科书中可以找到的算法(Russell和Norvig,2009年)。即使通常不将其视为动作,这些这些都可以看作是计算的形式。但是,如果我们拥抱了体现的机器人技术的经验教训(请参见下文),那么我们可能会将此定义扩展到AI?任何?是否可以扩展我们自己的能力来感知和行动。尽管这将是一个不寻常的定义,但它也可能使我们通过允许我们研究更长的技术干预历史来对AI给我们的社会带来的各种变化做出更牢固的掌握。

2015年5月,在旧金山举行的I/O开发人员大会上介绍GOPRO设备。该设备包括可与Google的“跳跃”的16个相机

  机器学习吗?(ML)是否有任何编程AI的方法不仅需要常规的手工编码,而且还需要通过在该数据上积累统计数据而自动概括的组成部分(Murphy,2012; Erickson等,2017)。ML通常(但不一定是)归结为寻求与感兴趣类别相关的数据规律性,包括适当的行动机会。ML也经常用于捕获关联,可用于获得新的行动技能,例如从演示中(Huang等,2016)。

  智能是“计算”的严格子集,即信息的转换。请注意,计算是一个物理过程,不是数学。它需要时间,空间和能量。智能是将上下文转换为动作的计算子集

  请注意,所有ML仍然涉及手工编程的组件。仅仅概念化或发现算法永远不会导致能够自发地传感或作用弹出的机器。从定义上讲,所有的人工智能都是由故意的人类行为所带来的。必须在进行任何学习之前构建和设计一些东西,以将某些数据源连接到某些表示形式。所有智能系统都有一个架构,通过哪种能量和信息流的布局,几乎总是包括保留某些信息,称为内存的位置。该体系结构的设计称为“系统工程”;正是在这一点上,应该建立系统的安全性和有效性。与一些令人发指但令人痛苦的经常主张相反,AI安全不是一个新领域。系统工程实际上是计算机(Schlager,1956年),并且一直是计算机科学教育的主要组成部分。正如引言中所记录的那样,AI长期以来一直集成到软件中,因此它以安全的方式进行了悠久的历史(例如,Bryson,2003; Chessell和Smith,2013年)。

  机器人?是在物理世界和实时行动的伪像。根据这个定义,智能手机是(国内)机器人。它不仅具有麦克风,还具有多种本体感受传感器,使其可以知道其方向何时改变或下降。它的操作范围包括介入其用户并传输信息,包括说明到其他设备。许多游戏机和数字家居助理也是如此 - “智能扬声器”/Google Home,Amazon的Echo(Alexa)或Microsoft的Cortana等麦克风。

  自主权?从技术上讲,自主是一个个人的能力(Armstrong and Read,1995; Cooke,1999)。因此,例如,如果其机构崩溃,一个国家要么失去其自主权,因此只有其公民的个人行动才有疗效,或者其机构受到其他机构或政府的影响,以至于其自己的政府再次没有影响其行动进程。当然,这两个极端都是非常不寻常的。实际上,对于像人类这样的社交动物而言,自主性绝不是绝对的(Gilbert等,2012)。我们的个人智能决定了我们的许多行动,但是某些细胞可能会因追求自己的目标与我们的整体福祉背道而驰而变得癌症(Hanahan and Weinberg,2011年)。同样,我们完全希望家庭,工作场所或政府会对我们的行为产生影响。我们还隐含地体验到的社会影响力远远超过了我们所意识的(Devos and Banaji,2003年)。然而,我们被视为自治,因为我们自己的智力在某种程度上也影响了我们的行为。因此,一种能够感知世界并选择特定于其当前环境的动作的技术系统被称为“自主”,即使其行为最终将由构建其智能及其运营商的设计师的某些组合确定。操作员可能会实时影响AI,并且必须通过设置其操作的参数(包括何时何地操作)来提前影响AI。如前所述,设计师称该系统的存在并确定其能力,尤其是它可以访问的信息以及可以采取什么行动。即使设计师选择引入机会元素,例如对当前环境的依赖或随机数发电机的控制,即使纳入仍然是设计师的故意选择。

  AI安全不是一个新领域。系统工程实际上早于计算机(Schlager,1956年),并且一直是计算机科学教育的主要组成部分

  对AI和社会的关注

  就市值(Apple,Alphabet,Microsoft和Amazon)而言,AI是历史上一些最成功的公司的核心。除信息和通信技术(ICT)外,AI还彻底改变了世界各地的人们可以获得当代全球社会的知识,信用和其他好处的便利性。这样的通道有助于大大减少全球不平等和极端贫困,例如,通过允许农民了解公平的价格,最佳农作物,并使他们获得准确的天气预测(Aker and Mbiti,2010年)。

  AI是数十年监管政策的受益者:迄今为止,研究和部署已被大规模的政府和其他资本投资(Miguel and Casado,2016年;技术委员会技术委员会委员会,2016年; Brundage and Bryson,2017年)。尽管本文后来部分的许多重点都集中在对AI的监管限制的可能动机或机制上,但应认识到:

任何此类AI政策都应并且基本上都将始终根据尊重技术的积极影响的重要性制定和实施; 2

没有人在谈论将法规引入AI。AI已经存在于监管框架中(Brundage和Bryson,2017; O’Reilly,2017);我们正在讨论的是该框架是否需要优化;

迄今为止,法规主要是完全建设性的,政府为开发AI的公司和大学提供了庞大的资源。即使监管受到限制,知情和精心设计的约束也可能导致更可持续甚至更快的增长。

  话虽如此,学者,技术人员和公众提出了许多问题,可能表明需要下调或约束。史密斯(2018),微软总裁,最近断言:

  [Intelligent3]技术提出的问题是隐私和言论自由等基本人权保护的核心。这些问题加剧了对创建这些产品的科技公司的责任。我们认为,他们还呼吁进行周到的政府法规,并围绕可接受的用途制定规范。在民主共和国,我们当选的代表就需要公共安全与我们民主自由的本质平衡的问题无法替代决策。

  在本节中,我根据可能产生的政策要求对感知的风险进行分类。我还提出建议,这些建议是非问题,ICT或技术的问题或对AI特别的问题以及在每种情况下的补救措施可能是什么。

  人工通用情报(AGI)和超级智能

  我从一些最具轰动性的主张开始 - 随着人工智能的增加,它超过了人类的能力,它可能会控制我们的资源并胜任我们的物种,从而导致人类的灭绝。如第1节所述,AI在许多域中已经是超人。我们已经可以更好地做到算术,下棋和走得更好,抄写语音更好,更好地阅读嘴唇,记住更多的东西,而且实际上,机器的速度比Unaped更快,更强大。尽管这些能力破坏了包括就业在内的人类生活(见下文),但它们绝不导致机器野心。

  一些人声称缺乏机器野心或确实统治,是因为到目前为止产生的AI形式还不够一般。“人工通用智能”一词用于描述两件事:AI能够学习任何没有限制的东西和类似人类的AI。AGI的这两种含义通常被混为一谈,但是这种融合是不一致的,因为实际上人类的智力有很大的局限性。了解人类智能的局限性是有益的,因为它们也与AI的限制有关。

  我们已经可以更好地做算术,下棋和走得更好,抄写语音更好,阅读更好的嘴唇,记住更多的东西,而且使用机器比无名的机器更快,更强壮

  人类智能的局限性来自两个原因:组合和偏见。首先是组合主义者,是一个普遍的问题,影响了所有计算,因此所有自然和人工智能:?组合主义者?(Sipser,2005年)。如果代理人能够采取一百个行动,那么它可以制定10,000个两步计划。由于人类的能力超过一百个不同的行动,即使一天之内也能够执行超过两个行动,因此我们可以看到,可能的策略空间是不可想象的,并且不能轻易被任何智能范围(Wolpert,Wolpert,1996b)。

  但是,计算机科学表明,至少出于特定目的,探索如此广阔空间的某些方法比其他空间更有效(Wolpert,1996a)。与智能最相关的是,许多处理器同时进行的同时搜索可以有效,只要问题空间可以在它们之间划分,并且曾经找到的解决方案既可以识别和传达)(Grama,2003)。人类技术比其他物种要高得多的原因是因为我们在这种并发搜索策略上更有效,因为我们通过语言分享进步或“好窍门”的能力(Dennett,2013; Bryson,2008年),2015; van Schaik等,2017)。我们的文化变革的速度不断提高,部分原因是ICT良好健康和教育的个人数量是前所未有的,这也是由于我们通过机器计算对搜索的增强。我们增加的AI和人工计算能力的增加通常会进一步提高我们的潜在探索速度;量子计算可能会进一步加速这些(Williams,2010年)。但是,请注意,这些优势并非免费。如果任务完全可以分开,一次进行两次计算可能会使计算速度增加一倍,但肯定会使进行计算所需的空间和能量量增加一倍。量子计算在空间和时间上都是同时发生的,但是其能源成本到目前为止尚不清楚,很可能很高。

  我们的文化变革的速度不断提高,部分原因是ICT良好健康和教育的个人数量,也是由于我们通过机器计算对搜索的增强

  最近,AI的大部分巨大增长很大程度上是由于更广泛地使用ML使用ML的“矿山”的能力提高了(Moeslund和Granum,2001; Calinon et al。,2010; Caliskan等,2017)。我们以前的一些计算的结果存储在我们的文化中,并且生物进化也可以被认为是一种大规模的平行搜索,在这种搜索中,结果的整理非常效率低下,只有最佳基因能够繁殖自己的速度。我们可以期望这种挖掘过去的解决方案的策略很快,当时人工和人类的智力开始共享现有知识的边界相同的范围。

  我在上面称之为“偏见”的第二种限制来源是我们物种的特殊之处。鉴于组合学的问题,所有物种仅探索可能的解决方案的一小部分,而在ML中,这种重点称为“偏见”。任何生物智能的确切性质都是其进化生态位的一部分,即使在具有相似的生存要求和策略的范围内,其他生物物种也不太可能被其他生物物种共享(Laland等,2000)。因此,我们与其他猿类共享许多认知属性,包括感知和行动能力,重要的是动机。然而,我们也具有反映我们高度社会本质的专业动机和能力(Stoddart,1990)。没有任何智能本身需要社会竞争力,也不需要渴望被一个群体接受,统治外群,也不需要在群体中获得认可。这些动机是我们进化历史所产生的人类合作与竞争的基础(Mace,1998; Lamba and Mace,2012; Jordan等,2016; Bryson et al。,2017);此外,它们甚至在人类中也有所不同(Van Lange等,1997; Herrmann等,2008; Sylwester等,2017)。对于人类而言,社会组织很容易适合政治经济环境,这是一种重要的生存机制(Stewart等,2018)。

  从人工制品的角度来看,这些都不是必需的,甚至大部分都是不连贯的。伪影在定义上是由人类意图设计的,而不是直接由进化设计。有了这些有意的人类创造的行为,不仅是人类的责任,而且还出现了一个完全不同的潜在奖励和设计限制的景观(Bryson等,2017; Bryson,2018)。

  鉴于上述所有内容,AGI显然是一个神话,实际上是两个正交神话:

没有任何自然或人工智能无法解决所有问题。

即使是非常强大的AI,也极不可能像人性化一样,因为它将体现完全不同的动机和奖励功能。

  但是,这些断言并不能保护我们免受另一个相关的关注。再次有两个组件问题。首先,在这一点上,智力应该能够迅速滚雪球,以至于普通人类检查是无法理解的。其次,即使智能经过精心设计以使目标与人类需求保持一致,它也可能会为自己意外的子目标发展而发展。例如,一个棋手的机器人可能会学会射击剥夺其足够资源来通过晚上关闭游戏来改善其游戏的人,或者归档机器人可能会将行星变成纸袋,以确保所有潜在的纸张都可以被充分订购(Bostrom,2012年)。

  如果我们记得所有的AI系统均已设计和人类责任问题,这两个例子是荒谬的。没有人制定过国际象棋计划,该计划代表了有关棋盘上没有任何资源的信息(可能的时间除外),也没有发射枪支的能力。计算机系统的容量和组件的选择再次是其体系结构的一部分。正如我前面提到的那样,体系结构的系统工程是现存AI安全的重要组成部分,正如我将在下面说的那样(第4.3节),它也可能是调节AI的重要手段。

  但是,超级智能本身的概念并不可笑。显然,学习学习的系统可以并且确实会体验指数增长。与超级智能有关的未来主义者犯的错误是,认为这种情况只是可能的未来。实际上,自写作创新以来,这是对过去10,000年来人类文化的一个很好的描述(Haberl等,2007; Barnosky,2008)。通过技术的增强人类智能确实导致了一个尚未经过精心设计的系统,并导致了意想不到的后果。其中一些后果是非常危险的,例如全球变暖和物种多样性的减少。List and Pettit(2011)将人类组织或政府等人类组织称为“ AI”时,也提出了类似的观点。

  正如我提到的那样,我将再次回到建筑和设计的重要性,但是值得再次强调此类偏见和限制的必要性。机器人特别明显的是,行为不仅取决于计算能力,还取决于其他系统属性,例如物理能力。对于智能手机或蛇来说,数字操作(例如打字或演奏长笛)只是一个选择,无论智能多么聪明。动机相似。除非我们设计一个具有拟人化目标,社会感知和社会行为能力的系统,否则我们不会看到它学会学会产生拟人化的社会行为,例如寻求主导对话,公司或国家。如果公司确实表现出这些特征,那是由于其组织的人类组成部分的表达,也是由于未经纪律,进化的手段所产生的大小和权力。从这个示例中,我们可以看到,AI系统至少可以表达明上智能,这至少是由列表和Pettit(2011)参数来表达的,这意味着应该调节这种智能系统以避免这种情况。

  超级智能本身的概念并不可笑。显然,学习学习的系统可以并且确实会体验指数增长。与超级智能有关的未来主义者犯的错误是认为这种情况只是可能的未来

  从上面我得出的结论是,超级智能的问题是真实的,但对AI并不特别。相反,这是我们的文化已经面对的。但是,AI现在是我们出色能力的一个促成因素,但这也可能导致我们学会更好地自我调节(即执政),因为它过去有几次(Milanovic,2016年; Scheidel,2017年)。即使是Agi是真实的,AI的生物学隐喻是通过自然选择竞争的,也没有真正的理由相信我们会被AI扑灭。我们还没有直接熄灭许多我们自己依赖的许多物种(尤其是微生物)。但是,考虑到整个社会技术系统的指数智力(而不是AI本身)的意外后果确实使我们引起了更加实质性的关注。

  不平等和就业

  几个世纪以来,人们一直对工人乘技术的流离失所(自动,2015年)引起了重大关注。毫无疑问,新技术会破坏社区,家庭和生活,但从历史上看,这种干扰的大部分都变得更好(Pinker,2012年)。总的来说,寿命比以往任何时候都更长,婴儿死亡率低,并且这些指标是人类满足感的良好度量,因为低婴儿死亡率尤其与政治稳定息息相关(King and Zeng,2001)。

  但是,一些破坏确实导致了政治动荡,最近被认为与AI的兴起相关。收入(可能是财富)不平等与政治两极分化高度相关(McCarty等,2016)。政治两极分化是由政党无法在民主治理中合作的,但两极分化时期的特征是身份政治和政治极端主义的增加。政治两极分化和收入不平等,但要么可以领导对方;这种关系基础的因果因素尚不清楚(Stewart等,2018)。众所周知,这些措施上次与现在一样高(至少在经合组织)就在第二次世界大战之前和之后。在1945 - 78年期间,不平等和两极分化之前的世界大战从根本上降低和稳定(Scheidel,2017年),尽管指出,在某些国家(例如美国和英国),金融危机的第二次冲击就足够了。

机器人焊接组件在A.G. Bayerische Motoren Werke(BMW)的装配厂,位于南卡罗来纳州格里尔,2018年5月

  幸运的是,我们现在知道如何纠正这种情况 - 重新分配降低了不平等。第二次世界大战后,当税率约为50%时,建立或最终确定了现代福利国家,跨国财富提取被阻止(Bullough,2018年),收入不平等和政治两极分化均保持较低的二十多年。在此期间,工资还与生产力保持同步(Mishel,2012年)。但是,在1978年的工资差不多,不平等和政治两极分化开始上升,在经合组织5中又开始上升。有很多理论,但是考虑到许多指标的转变的鲜明性,它看起来更像是政策的变化,而不是技术的变化。这可能反映了当时的地缘政治变化,例如,它可以表明经合组织的经济有影响力的成员检测到冷战的到来,并从旨在应对共产党起义威胁的政策转移出来。

  收入不平等和政治两极分化可能是AI兴起的结果,但是1800年代后期发生了类似的政治和经济趋势的事实表明,这不是任何一种技术的特别关注

  无论是什么原因,关于AI,同样的政治和经济趋势再次发生在1800年代后期,这一事实意味着这不是任何一种技术的特别关注。如前所述,到目前为止,在正在进行的研究中尚未达成共识,但我与其他作者6?正在探索某些技术降低传统上在经济体系中保持多样性的成本的想法。例如,当运输成本很高时,人们可能会选择使用附近的提供商,而不是为特定商品找到全球最佳提供商。同样,缺乏信息透明度或扩展能力可能会导致提供者的使用更多样化。技术创新(包括在业务流程中)可能会克服这些成本,并允许相对较少的公司统治。十九世纪后期的例子可能包括使用石油,铁路和电报,以及改善运输和报纸的运输。

  在一些提供商收到所有业务的地方,他们还将获得所有财富。治理是重新分配的主要机制(Landau,2016年),因此技术的革命可能需要随后的治理旋转以恢复平衡(Stewart等,2018)。福利国家可能就是这样一个例子(Scheidel,2017年)。我们将返回讨论以下治理中可能的创新需求(第4节)。

  返回AI或更可能的ICT,即使这些技术在不平等和政治两极分化方面并不独特,它们也很可能是目前这样做的主要组件技术。此外,目前针对人工智能的公众和政策关注可能有机会研究和解决不平等和两极分化的核心原因,特别是如果AI被视为危机(Tepperman,2016年)。然而,值得访问极化的一种假设的后果。身份政治的提高可能导致人们增加使用信念来表明群体状态或隶属关系(Iyengar等,2012; Newman等,2014),不幸的是,这将减少他们预测或描述世界的比例用途 -是,反映事实。因此,具有讽刺意味

  对信念的这种依赖,因为群体指标可能会影响另一个关于当代政治的令人担忧的特征:对专家的信念。虽然偶尔会受到一些专家的不负责任使用甚至滥用职位的动机,但总的来说,失去对专家的观点的机会是一场灾难。第3.1节中提到的知识的组合爆炸还意味着,没有人,无论多么聪明,都能掌握其一生的所有知识。如果社会忽略了它已经建立的专业知识的商店(通常是通过高等教育的纳税人资助)所建立的,那么它就会处于相当大的劣势。

  这些对“真实”的性质和原因的关注,在信息时代应该导致我们的下一系列问题,即对个人信息的使用。

  隐私,人身自由和自主权

  当我们考虑AI对个人行为的影响时,我们现在来到一个更清楚地产生独特影响的地方。长期以来,家庭间谍长期以来一直与所有事物有关,从偏见的偏差到大庞大。但是,ICT现在允许我们保留任何生产可存储数据的人(例如,任何具有账单,合同,数字设备或信用记录的人)的长期记录,更不用说任何公开写作和社交媒体使用了。也就是说,每个人。

  不仅是数字记录的存储和可访问性改变了我们的社会;事实是,可以使用算法搜索这些模式识别。我们已经失去了默默无闻的默认假设(Selinger和Hartzog,2017年)。我们现在在某种程度上是所有名人:无论是通过面部识别软件还是购物挖掘或社交媒体习惯的数据挖掘,我们中的任何一个人都可以识别出来(Pasquale,2015年)。这些可能不仅表明我们的身份,而且表明我们的政治或经济倾向,以及哪些策略可能有效地改变这些策略(Cadwalladr,2017a,b)。ML允许我们发现我们以前没有概念的新模式和规律性。例如,数字手写笔上的单词选择甚至是手写压力都可以表明情绪状态,包括某人是否在撒谎(Hancock等,2007; Bandyopadhyay和Hazra,2017年),或者社交媒体的使用方式可以预测个性类别,政治偏好甚至生活成果(Youyou等,2015)。

剑桥分析公司SCL集团前董事Chistopher Wylie - 在2018年4月在纽约举行的100个晚宴。用于政治用途

  不仅是数字记录的存储和可访问性改变了我们的社会;事实是,可以使用算法搜索这些模式识别。我们失去了默默无闻的默认假设

  机器学习使近人类甚至超人的能力从声音转录,识别音频或视频录音的情绪以及锻造手写或视频的情绪(Valstar和Pantic,2012; Griffin等,2013; Eyben等人)。,2013; Kleinsmith和Bianchi-Berthouze,2013; Hofmann等,2014; Haines等,2016; Reed等,2016; Reed等,2016; Vincent,2016; Thies等,2016; Deng et al。,2016; Deng等,2017)。我们对人们可能会做什么的模型越好,我们需要预测个人将要做什么的信息就越少(Bishop,2006; Youyou等,2015)。该原则可以通过采用一个人的写作或声音模型,将其与文本流相结合,并产生“预测”或成绩单,以了解该人如何写或说该文本(Haines等,2016;Reed等,2016)。同样的原则可能会使政治战略家能够确定如果不更改党派的隶属关系,可能会说服哪些选民,至少增加或减少他们投票投票的可能性,然后应用资源说服他们这样做。据称,这种策略对英国和美国最近的选举产生了重大影响(Cadwalladr,2017a,b; ICO,2018年);如果是这样,几乎可以肯定,在其他选举中,对他们进行了测试和部署。

  然后,我们社会中的个人可能会合理地惧怕其行为或信念的传播,原因有两个:首先是因为它使他们更容易预测和操纵;其次,因为那些不同意自己的信念的人将他们暴露于迫害。这种迫害的范围可能从个人欺凌到错过的职业或其他组织机会,再到某个不稳定的(或至少是不道德的)社会,在国家手中的监禁甚至死亡。这种恐惧的问题不仅是承受他们的压力本身是有害的,而且在抑制个人自由和自由表达时,我们减少了整个社会传播的思想数量,因此限制了我们创新的能力(Mill),1859年;价格,1972年)。应对机遇和挑战需要在社会各个层面上的创造力和自由思考。

  公司自治,收入和责任

  这些对个人自主权的考虑直接导致了我在这里描述的最后一系列问题,这不是经常提到的。理论生物学告诉我们,在沟通更大的地方,合作的可能性更高(Roughgarden等,2006)。尽管合作通常很棒,但也可以认为这实际上是将一部分自主权从个人转移到一个小组中(Bryson,2015年)。让我们从第2节的定义中回忆起,一个实体所具有的自治程度是它决定自己的行动的程度。个人和团体自治必须在某种程度上进行权衡,尽管有一些组织群体或多或少为其组成部分提供自由。因此,刚刚描述的个人自由的局限可能是引入更大的沟通能力的非常自然的结果。在这里,我再次提到了所有ICT,但是AI和ML具有加速解决方案和合作者的能力的能力肯定是一个重要的组成部分,并且可能改变了游戏。

  具有讽刺意味的是,许多人认为更大的数据必然会更好,但是更好的是什么?基本统计数据告诉我们,我们需要进行预测的数据点数量受到数据差异的限制,仅提供数据是其人群的真实随机示例。8?我们需要的数据程度科学或医学可能仅需要一小部分人口。但是,如果我们想发现特定的个人受到控制,劝阻甚至晋升,那么我们当然想“了解所有事情”。

  但是,在小组级别上改变投资的成本和收益比仅仅是隐私和自由会带来更多的后果。ICT有助于模糊客户与公司之间的区别,甚至是经济交易的定义。到目前为止,这在很大程度上没有被认可,尽管请参见Perzanowski和Schultz(2016)。Frischmann和Selinger(2016)。现在,客户为他们提供习惯的公司做真正的劳动:价格和装袋杂货,在ATM上为银行打孔,填写航空公司的表格等等(Bryson,2015年)。这项劳动的价值没有直接报酬 - 我们假设我们以回报而收到更便宜的产品,因此,我们对这些公司的代理损失可能被视为一种易货币形式。他们也不被划分,掩盖了这种经济的价值。因此,ICT促进了一个黑色或至少不透明的市场,该市场减少了衡量的收入,因此税收基于税收基于税收的营业额或收入。这个问题适用于使用Internet服务和接口的每个人,甚至忽略了平台提出的就业定义的问题(尽管请参见O’Reilly,2017年)。我们提高价值和权力的能力在避免收入的同时提高能力也可能有助于解释我们所谓的静态生产力的奥秘(Brynjolfsson等,2017)。

  在“免费” Web服务的情况下,这种动态最为明显。显然,我们正在接收信息和/或娱乐,以换取数据和/或注意力。如果我们关注与广告共同展现的内容,我们为主持人提供了影响我们行为的机会。对于不太传统的纽约,例如第3.3节中提到的假定的政治干预措施也是如此。但是,这些交流只有总计(如果有的话),并且只有当提供此类服务的公司被评估时。甚至在投机上收集了许多数据。在数年后构想创新的使用之前,它可能没有或很少的价值。

  ICT有助于模糊客户与公司之间的区别,甚至是经济交易的定义。到目前为止,这在很大程度上没有被认为

  我们无法在传统点(即收入或交换)贬低收入的日益增加,这可能是增加财富不平等的另一个原因,因为经济的认可,征税和重新分配。一个明显的解决方案是直接对财富(例如,公司的市场价值)而不是收入征税。信息时代可能会使跟踪财富的分配变得更容易,从而使这种策略比过去更可行,尤其是相对于跟踪收入的挑战而言,如果后一个挑战确实正在增加,则如我所描述的那样。但是,是否仅在该国(通常是避税天堂)正式纳入该国(通常是避税天堂)征税的是不足。鉴于我们可以看到数据的跨国传输和与服务的互动,因此从理论上讲,我们应该能够按比例分发重新分布,并成比例地按照得出的数据的范围和价值进行分配。由于通常由政府实施,几乎没有跨国政府。但是,有国际条约和有组织的经济领域。大国或协调的经济体,例如欧洲经济区,可能能够为其公民提供公平的重新分配,以换取与这些公民接触的特权。中国成功证明,这种访问不一定是给定的,实际上阻止访问可以促进当地竞争的发展。美国城市和州针对Uber和Airbnb等平台也使用了类似的策略。

如果尊重技术的积极影响的重要性

欧洲议会议员在法国斯特拉斯堡,2018年3月在法国斯特拉斯堡投票

  对ICT财富的税收使我施加了拟议的法律扭曲,这特别危险。2016年,欧洲议会提出,AI或机器人技术可能被合理地征税为“ E-Persons”。这是一个可怕的想法(Bryson等,2017)。它将允许公司自动化其业务流程的一部分,然后以限制其对税收和法律损害的负债的方式中断。

  对机器人征税的想法使民粹主义的吸引力有两个原因。首先,似乎基本的常识是,如果机器人“从事我们的工作”,他们也应该“缴税”,从而通过福利国家支持“我们”。其次,许多人发现我们可以通过AI和/或机器人技术延长人类生命的想法,即我们可以延长人类的生命,或者比生活更重要的事物。不幸的是,这两个思想都非常不连贯,这是对智力本质的无知。

  如前3.1节所述,这两个上诉都认为?智能?部分意味着像人类一样。尽管毫无疑问,该单词已在文化上使用,但根据第2节中介绍的定义,这显然是完全错误的。首先解决第二个问题,价值观,动机,甚至是文化猿的美学,也不能与一种与我们具有体现的物理(“现象学”)体验的设备有意义地共享(Bryson,2008; Claxton; Claxton,2015; Dennett; Dennett; Dennett; dennett》;2017)。我们从金属和硅产生的任何东西都不会像老鼠或牛一样共享我们的现象学,而且很少有人将牛或大鼠视为我们后代的可行船只。

  征税机器人并通过人工智能延长人类的生活是民粹主义吸引力的想法。不幸的是,两者都是基于对智力本质的无知

  此外,证明人类思想在数字技术方面(即使是可能的)的想法将使它不朽甚至增加其寿命是可笑的。数字格式的平均寿命不超过五年(Lawrence等,2000; Marshall等,2006)。这里的谬论再次是将计算形式误认为数学形式。虽然数学确实是纯粹,永恒的,而且可以肯定的是,那是因为它也不是真实的,但它并不体现在物理世界中,不能采取行动。相比之下,计算是真实的。如前所述,计算需要时间,空间和能量(Sipser,2005)。存储状态(内存)需要空间,并且没有永久的方法来实现此类存储(Krauss and Starkman,2000)。

  要回到对AI实体征税的看似更实用的想法,这再次忽略了他们缺乏人性。特别是,由于人类是可计数的,因此AI是不可计算的。尽管比尔·盖茨(Bill Gates)不支持法律性格,但这种批评也对比尔·盖茨(Bill Gates)支持征税机器人(作者,2017年)。没有等效的“马力”来衡量被算法代替的人数。正如刚才提到的,面对加速创新,我们再也无法跟踪包括人类参与者在内的交易的价值。当引入一项新技术时,我们可能会简要看到有多少人被裁员,但即使这似乎反映了当前的经济,而不是劳动力的实际价值所取代的实际价值(Autor,2015; Ford,2015)。当时间良好时,公司将保留并培训经验丰富的员工;当不好的时候,公司将以借口减少员工。即使最初的就业转变表明最初的“人力”取代了最初的“人力”,技术也很快就会改变他们所插入的经济体,人工劳动的价值也迅速改变。

  必须记住,根据定义,工件是设计的。在物理和计算定律的范围内,我们对AI和机器人技术拥有完整的作者身份。这意味着,开发商将能够以对基于人类劳动力的立法者不可想象的方式逃避税法。将公司分解成自动化的“电子佩森”的过程将大大扩大过度扩张法律人格的问题,例如用于洗钱的壳牌公司。如果没有合成实体没有人类使用的人类,将其视为合法人的明智的限制意义将完全解散(Solaiman,2017; Bryson等,2017)。

  接下来的十年:补救和未来

  在第3节开始时再次强调,AI一直是经济增长和个人赋权的令人难以置信的力量。我们能够知道,学习,发现和做五十年前本来是不可想象的事情。我们可以走进一个陌生的城市,不知道该语言尚未找到我们的方式并进行交流。即使我们在发展中经济体中领导着低薪的生活,我们也可以利用世界上最好的大学提供的教育(Breslow等,2013)。即使在发展中国家,我们也可以使用乡村智能手机来检查各种农作物的公平价格,以及其他有用的信息(例如天气预测),因此即使是自给自足的农民也从ICT中吸引了极端贫困。人类基因组项目完成的令人难以置信的步伐只是人类整体如何从这项技术中受益的一个例子(Adams等,1991; Schena等,1996)。

  然而,上面强调的问题需要解决。我将在这里对每个提出建议,从最近介绍开始。我将在这里简要介绍,因为像往常一样,解决方案的知识仅遵循问题的识别,上面的识别尚未达成共识,而只提出了。此外,已经提出了一些用于纠正这些问题的方法,但是我在这里进一步介绍了不同的细节。

  就业和社会稳定

  我已经在第3.4节中驳回了这样的想法,即使AI合法人员解决我们目前正在遇到的就业中断或财富不平等问题的问题。实际上,电子人物几乎可以肯定会增加吗?通过屏蔽公司和富人免于责任,以普通人为代价。我们现在有充分的证据表明,富裕的个体捐助者可以带领政客进入古怪,极端主义的职位(Barber,2016年),这可能会导致灾难性的结果,再加上增加政治两极分化和身份政治压力的压力。同样重要的是要意识到,并非每个非常富有的人都必须公开揭示其财富水平。

  电子人物几乎可以肯定会增加?通过屏蔽公司和富人免于责任而增加不平等,以普通人为代价

  在民主国家中,高度不平等和高两极分化时期的另一个相关性是非常紧密的选举,即使候选人似乎似乎不均匀地匹配。当然,这打开了(或至少降低)对选举(包括外部力量)操纵的成本。Person(2018)表明,薄弱的国家可能正在通过破坏选举和通过治理能力,因此自治实践“减法平衡”,以减少权力差异,以支持较弱的国家。如果个人的个人或联盟足够富有,可以降低政府的效力,那么各州也失去了自主权,包括边界的稳定。

  战争,无政府状态及其相关的不稳定不是任何人真正想参加的情况,尽管目前从非法活动中获利的人可能会以其他方式认为。每个人都从足够的稳定性中受益于计划企业和家庭。跨国公司的出现伴随着其他跨国组织的数量和力量大幅增加。如果它们有助于协调跨国利益的合作,则可能会受到欢迎,但是重要的是要意识到地理永远是政府许多事务的实质性决定者。无论他们的孩子接受疫苗接种还是受过良好的教育,您的邻居的房屋免受火灾的保护状况总是会影响您的生活质量。淡水,污水,清洁空气,免受自然灾害的保护,免受入侵,个人安全性,运输选择权 - 本地和国家政府将在不限于未来的未来中继续发挥非常重要的作用,即使某些职能已卸载给公司或跨国政府。因此,它们需要充分资源。

一个远程编译器在2013年4月在马萨诸塞州剑桥市录制在线课程的麻省理工学院课程中显示了一个“虚拟学生”

  我在第3.4节中建议,对ICT对Inforality的影响的一种可能解决方案是将优先事项从记录和征税收入转变为记录和征税财富。该建议最大的问题可能是,它需要在国际上进行重新分配,而不仅仅是在国内发生,因为每个互联网的最富有的公司?只有一个国家,虽然肯定是对中国以外的人,而对于内部的人来说,他们的财富源于他们的财富。全球活动。处理这种情况将需要重大的政策创新。幸运的是,避免战争和其他破坏性的社会和经济动荡,包括所有利益相关者,包括领先的公司。二十世纪的世界大战和金融危机表明,对于极富富裕的人来说,这尤其如此,他们至少在经济上拥有最大的损失(Milanovic,2016年; Scheidel,2017年),尽管当然不会丧生。

  我特别佩服德国最近经济衰退期间展现的经济困难的灵活解决方案,公司可以部分地?解雇员工,然后谁收到了?部分?局部?福利和空闲时间(Eichhhorst and Marx和Marx,2011年,第1页。80)。这允许个人在长时间维持一段靠近其个人规范的生活水平的同时进行重新训练。它还允许公司在枢纽业务方向或刚刚寻找流动性的同时保留有价值的员工。应鼓励这种灵活性,政府和个人都在危机时期保持经济能力来支持自己。实际上,足够的灵活性可以防止危机时期的高变化时期。

  薄弱的国家可能正在通过破坏选举和通过治理能力和自治来实践“减法平衡”,以减少权力差异,以支持较弱的国家

  如果我们可以减少不平等,我相信尽管变化的速度有所提高,但就业问题也会减少。我们是一个非常富有的社会,可以负担得起至少在重新训练时部分支持个人。我们也是创新的。如果钱在社区中流传,那么个人将找到互相雇用并互相提供服务的方法(Hunter等,2001; Autor,2015)。同样,这可能已经在发生,并且可以解释一些作者声称在社会中检测到的变化率降低(例如,Cowen,2011年)。许多人可能会继续找到自我和(在此成功)在自己社区中生产服务的其他工作的途径,从社会,例如教学,警务,新闻和家庭服务到美学,例如个人,家和花园装饰,以及提供食物,音乐,体育和其他公共行为。

  关于这些人是否能够过足够美好的生活,他们可以从社会的优势中受益的决定是经济政策问题。例如,我们希望任何家庭能够在最近的大城市度假,或者让他们的孩子经历社交流动性,例如纯粹基于优点,进入所选地区的顶级大学。当然,我们期望在本世纪,可以自由获得医疗保健,以及中等和中等教育。人们应该能够与家人住在一起,但也不需要上下班时间。这既需要分布的就业机会,又需要出色的,可扩展的(可能是公共)运输基础设施。

  如果我们可以减少不平等,我相信尽管变化的速度有所提高,但就业问题也会减少。我们是一个非常富有的社会,并且有能力在重新培训时至少部分支持个人

  此类基础设施的投资水平部分取决于税收公共和私人的投资,以及这种财富的支出。从历史上看,由于战争,我们在某些时期里花了很多时间在破坏他人的基础设施和修复自己的基础设施和修复。现在,即使我们避免了公开的弹道战,我们也必须面对放弃由于气候变化而不再可行的旧基础设施的必要性,并在其他地方进行投资。当然,这为重新分配提供了很大的机会,尤其是当前经济上沮丧的城市,正如罗斯福的新交易所表明的那样,这大大降低了第二次世界大战之前美国的不平等现象(Wright,1974; McCarty等,2016; McCarty等人)。

  我与那些不认为普遍基本收入的人在一起是重新分配的重要机制,原因有几个。首先,许多人希望通过削减公共服务来为其提供资金,但是由于越来越多的人无法应对加速变化的世界的技术和经济复杂性,因此可能会越来越需要这些资金。其次,我已经看到太多在公路中间安全地站着告诉电视摄像机:“政府从未为我做任何事情”,对他们的教育,安全和基础设施的大量投资一无所知。我认为,基本收入很容易成为看不见的,并理所当然地被视为垃圾收集和紧急服务。

  但是,最重要的是,我希望重新分配以增强当地公民社区的重要性,也就是说,无论是直接还是作为自由职业者和客户,都可以通过就业传播。AI和ICT使与来自世界各地的人们建立联系变得容易,或者实际上是使用实际上不是人类的AI技术的娱乐幻想。但是,我们邻居的福祉对我们自己产生了巨大影响,并且通过水,空气,教育,消防和其他紧急服务的质量,当然还有个人安全。最好的社区是通过知识和个人关注(即本地化友谊)建立联系的。

  增加重新分配的一种有效机制只是最低工资的增加(Lee,1999; Schmitt,2013)。即使这仅是为政府雇员做的,它对其他雇主竞争最好的人时也具有连锁反应的影响,当然,还具有更好的动力,可以使好工人通过公务员。尽管由于各种原因(例如Meyer,2016年),这种机制受到了攻击,但证据似乎对总体积极影响似乎相当有益。

  隐私,自由和创新

  回到隐私和个人自治问题的耦合问题,我们遇到了一个预测更加困难或至少更多样化的领域。显然,通过默默无闻的隐私时代已经结束,因为我们现在有更多的信息和更多的信息来过滤和理解信息,而这与以往任何时候都不太可能因消除我们的数字能力的全球灾难而改变。然而,我们长期以来一直处在居住的空间中,从理论上讲,我们的政府和邻居可以从我们那里夺走我们的私人财产,但是除了征税(Christians,2009年)之外,很少会这样做。我们可以对我们个人数据的类似控制水平吗?我们可以在信息时代拥有有效的隐私和自主权吗?如果没有,后果是什么?

  首先,应该说,任何方法来捍卫个人数据并保护公民免于通过其个人数据进行预测,操纵或直接控制的公民都需要强大的加密和网络安全,而没有?后门。不良演员都利用了网络安全的每个后门(Abelson等,2015)。弱网络安全应被视为对AI和数字经济的重大风险,尤其是物联网(IoT)。如果无法信任智能甚至仅仅是连接的设备,那么它们将在家庭或工作场所中受到欢迎(Weber,2010; Singh等,2016)。

  许多关于技术介导的隐私权主题的思想家都表明,关于一个人的数据不应被视为该人的资产,而是该人的一部分,这是个人身份的扩展。因此,除了提到的人以外,任何人都不能拥有个人数据;任何其他用途都是租赁或合同,未经同意就无法延长或出售(Gates and Matthews,2014; Crabtree and Mortier,2015)。这将使个人数据更像您的人;如果您受到侵犯,您应该求助于法律。为了追求这种模式,正在开发各种法律和技术创新。但是,鉴于易于访问数据和证明这种访问的难度,数据可能比实体个人财产难得更加困难(Rosner,2014; Jentzsch,2014)。幸运的是,至少一些政府捍卫其公民的数据权益的一部分(例如,GDPR,Albrecht,2016; Danezis等,2014)。这是出于极好的原因,因为如上所述,基于这些人的社会媒体概况,外国提取数据财富以及对个人政治偏好和其他行为的操纵都存在政治和经济后果。

  许多关于技术介导的隐私问题的思想家都表明,关于一个人的数据不应被视为人的资产,而是该人的一部分,这是个人身份的扩展

  捍卫我们隐私的最佳位置是政府,大概是通过至少违反个人数据的最严重的例子的集体诉讼诉讼。请注意,此类行动可能需要对国际法或条约进行重大创新,因为一些最突出的操纵指控涉及整个国家的选举结果。例如,英国英国脱欧投票在全民公决(欧盟的任何实际出口之前)的头两年中,该国损失了230亿美元的税收损失,或每周4,400万美元(Morales,2018年)。如前所述,据称英国脱欧投票受到已知AI算法的影响,该算法已被证明是通过外国投资资助的(ICO,2018年)。具有讽刺意味的是,实现这种损害的赔偿几乎肯定需要国际合作。

  不幸的是,政府并不总是将其公民的利益牢记在心,或者至少并非总是所有公民的利益。的确,在20世纪,全球,一个人的政府比任何外国演员都更有可能被自己的政府杀死(Valentino,2004年)。最近,中国一直在使用监视制度,该制度本应确保其公民安全地摧毁一百万公民的生命和家庭,以将其安置在恢复教育营地中,以犯罪,即使是随便表达其穆斯林的身份(人权)观看,2018年;编辑委员会,2018年)。更普遍的是,如果政府担心吹口哨,异议,甚至只是保证保证在其领土上的所有人员尊严和繁荣的责任,那么他们可以并且经常会压制甚至杀死这些人。当政府认为在其边界内的一群人视为成本或麻烦比其集体潜在的劳动,安全和创新的潜在价值更多的成本或麻烦是非常危险的。加剧了这种严重的威胁,我们既有智能自动化的承诺和炒作,又是一种新的,完全拥有和可控制的劳动和创新来源。关于人工智能的夸张的论述增加了政府(MIS)评估人类生命价值的风险低于维持这些生活的感知成本。

  我们无法知道当前轨迹的确定结果,但是如果要行使任何形式的抑制,我们可以很容易地期望AI和ICT将是监视和预测潜在的麻烦制造商的手段。据称,中国不仅要使用面部识别能力来识别个人,而且还在恢复教育营和普通学校中确定他们的情绪和注意状态。如果学生不关注学生,也许会受到惩罚,如果囚犯似乎不愿意遵守(重新)教育,就可以受到惩罚。ICT系统能够检测并告知教师以调整学生的注意力和理解的讲座和材料,并为西方的教室提供介绍,并且是传统教室外的个性化AI教学的核心。可能还开发了类似的系统,并可能用于其他类型的工作(例如,Levy,2015年)。

  关于人工智能的夸张的论述增加了政府(MIS)评估人类生命价值的风险低于维持这些生活的感知成本

  如果我们允许这样的趋势继续前进,我们可以期望社会更安全,或者至少在街上更加和平 - 更加同质,不那么创新且多样化。越来越多的人拥有现在比以往任何时候之间在国家之间移动的手段和经济,因此我们可能希望真正产生最好的生活质量(包括治理和个人保护)的国家将吸引那些关心人身自由的国家。我们也可能希望,随着这些移民及其现存公民的劳动和创新的共同权力,这些国家可能不仅能够保护自己,而且可以保护他人。我们已经看到欧盟通过设定AI伦理(例如GDPR)的标准来做出这样的保护,当然,联合国正在与《巴黎协定》等工具合作,以保护我们所有人免受气候变化的侵害。在如此良好的蓬勃发展的社会中,我们希望看到可能会增加而不是当前自由的下降,因为我们开始认识到我们已经练习的监视所带来的问题,例如,在微观管理我们的孩子的个人时间时(Lee等,2010; Bryson,2015)。

  不幸的是,对于这种从良好的国家传播的幸福感池的乐观愿景,实践中越来越多地使用技术,或者威胁要使用最精英除外的任何跨境迁移(Miller,2017年)。除了种族灭绝和大规模杀戮之外,在战争和政治革命中经常观察到的另一种历史趋势(例如,纳粹占领的波兰,冷战捷克斯洛伐克,伊朗革命,斯大林的苏联,柬埔寨,柬埔寨,在喀麦尔·鲁格(Khmer Rouge)沙特阿拉伯)不仅是持不同政见者,而且是所有知识分子的位移,甚至是执行。维持控制的努力通常被视为需要消除任何潜在的创新领导,即使确切的领导才能使人们保持健康,因此可能需要这种领导才能稳定(King and Zeng,2001),更不用说维持技术进步了在任何武器竞赛中保持一致的必要条件(Yan,2006年)。这种运动只有在持久痛苦后才会失败,并且通常只有在持续足够长的时间才能清楚其政策对该国国际竞争力的损害。AI使任何此类目标群体甚至具有目标态度的人都可以识别和隔离。只有当我们还能够创新对腐败,自私或以其他危险的治理的保护,我们才能保护自己免于失去社会的多样性和自由,从而使我们所有人的安全。

  同样,AI用于善治的能力导致越来越公平,更强大的社会是非常真实和广泛发展的。例如,人工智能用于减少金融犯罪,欺诈和洗钱,保护个人,社会和政府免受不当和非法影响的影响(Ngai等,2011)。这是明智的,也是对金融服务提供商及其政府职责的普通合同理解的一部分。对于他们有意识地选择并明确表达了诸如锻炼或睡眠制度之类的渴望的行为,公民将其设备或其他机构“推动”行为可能是道德的。但是,重要的是要认识到明确的胁迫和隐性误导的大规模威胁,这些威胁伴随着大量知识,因此伴随着AI的权力。因此,AI增加了人文和社会科学研究和发展投资的紧迫性,尤其是政治科学和社会学。因此,我现在转向调节AI的问题。

  个人,公司和法规责任

  没有比奴隶制或君主制的世袭权利更不可避免的方面。同样,我们至少可以规范合法的商业产品来授权安全或至少透明的架构(Boden等,2011)。

  维持人为AI系统的人为责任制并不一定意味着我们必须(或可以)考虑机器学习的神经网络中每个重量的价值,或者是培训中使用的每个数据实例的影响。这不仅是不切实际的,而且不是我们当前要求组织负责的标准或手段。公司不对其帐户大脑的突触组织负责;它负责其帐户状态。将AI引入公司或治理过程中实际上在责任方面变化很小。我们仍然需要能够很好地表征我们的系统,以认识到它们是否按预期表现出来(Liu等,2017)。这是可行的,应该鼓励它(Bryson和Theodorou,2019年)。

  鼓励责任需要确保我们继续保持问责制(Santoni de Sio和van den Hoven,2018年)。一种简单的方法是教育政府和检察官,即软件系统与任何其他制造工件的责任问题大致相同 - 如果被滥用,那是所有者的错;如果它们在适当使用时会造成伤害,则它们有过错,并且制造商可能承担责任,除非他们能够证明尽职调查和特殊情况。该系统的一部分是自主的事实并不能改变这一事实,就像银行可以对其银行系统应该捕获或限制此类错误的会计师或客户产生的错误负责。当然,这里有挑战,特别是因为AI技术的众多应用在跨国环境中,但是欧盟,联合国和经合组织等组织希望能够协调各国为保护其公民的努力。

  当然,AI系统并不像更确定性的系统,而是夸大这些差异的后果会带来问题。AI围绕身份和道德代理产生的混乱的“烟雾和镜子”可以掩盖坏主意(Bryson,2018)。关于人工智能治理的一种趋势是“价值一致性”的趋势?作为解决科学困难问题的解决方案,尤其是AI伦理。这个想法是,我们应该确保社会领导并认可科学或技术的去向(Soares and Fallenstein,2014年)。这听起来可能非常安全和民主,但也许更好地将其视为民粹主义者。首先讲科学:科学是一种主要机制,使社会能够准确地理解?它的背景。相反,?治理?社会在潜在行动之间如何选择。流行的情绪无法确定自然的真实;它只能确定哪些政策最容易部署。为了限制一个社会仅感知自己想知道的事物的能力,就是盲目(Caliskan等,2017,请参阅最终讨论)。同样,政策的结果受到公众情绪的很大影响,但肯定不是由其决定。询问公众对AI的需求,就像问他们最想看到的哪部科幻电影 - 无法保证他们会选择可行的一部,更不用说在旷日持久的细节上真正希望。尽管公众必须通过政府确定其经济和政治优先事项,但实际的进步几乎是通过全民投票取得的。相反,治理几乎总是归结为有限数量的专家谈判者之间的知情谈判,这些谈判得到了较大但仍然有限的领域专家的支持。

  即使鉴于通过利用计算和AI可用的大量资源,人类谈判者也可能永远是政策的最佳决定者。这部分是因为我们作为公民可以与人类代表认同,从而在谈判的结果中建立信任和投资。但更重要的是,可以将人类代表以AI永远无法的方式来考虑和说服。我们不能故意设计系统以人类的社会成果为中心,或者实际上任何社会动物的智力已经演变成。我们无法通过设计来做到这一点,因为设计本质是一个可分解的过程,而进化论一再发现,对社会地位的关注必须是个人智能对依赖社会策略生存的物种的不可估量的一部分。因此,我们的整个正义制度依赖于劝阻,与孤立,权力丧失或社会地位有关。我们不能将这种司法标准应用于我们设计的机器,也无法通过我们不仔细设计的机器追踪问责制(Bryson等,2017; Bryson and Theodorou,2019)。

  关于人工智能治理的趋势的一个趋势是价值趋势?一致性地解决科学困难问题,特别是AI伦理

  最后,有些人表示担心,由于AI的变化速度迅速,因此不可能在AI面前维持监管。的确,个别人类的能力有限,包括我们可以回应的速度。同样,立法只能以特定的速度写。实际上,潜伏期是故意建立在立法过程中,以确保变革的步伐不太高于商业和个人计划(Holmes,1988; Cowen,1992; Ginsburg,2005; Roithmayr et al。,2015)。因此,不能仅仅立法就可以跟上AI和ICT带来的加速变化速度。我以前曾建议,制定明智的政策的一种机制是让通过专业组织工作的领域专家描述标准系统(Bryson和Winfield,2017年)。然后,政府的作用将减少到监测这些努力并借给其成果的贷款。我上面提出的论点(以及在布赖森和西奥多鲁,2019年)可能被视为该原则的概括。在这里,我们说我们根本不需要改变立法,只需举办建立或利用AI的组织来解释其系统采取的正常和既定手段,以追踪问责制的后果。那时,这些组织将需要与他们的其他创新进行锁定的责任创新,以便他们可以证明他们始终遵循与系统的尽职调查。

  结论

  人工智能已经比我们意识到的要快的速度改变了社会,但与此同时,它在人类经验中并不像我们经常想象的那样新颖或独特。其他人工实体,例如语言和写作,公司和政府,电信和石油,以前已经扩大了我们的能力,改变了我们的经济,并破坏了我们的社会秩序,但从本质上讲,尽管并非普遍,但它并不普遍。具有讽刺意味的是,我们目前需要掌握的最大威胁:可持续的生活和逆转生物多样性的崩溃,这是我们平均表现更好的证据。

  尽管如此,AI以及更广泛的ICT可能会以我们管理的方式,尤其是在我们增加重新分配的收入的方式上进行激进的创新。通过商业创新,我们面临跨国财富转移,这些创新超过了我们衡量甚至确定产生的收入水平的能力。此外,这种不可知价值的新货币通常是个人数据,并且个人数据使那些持有其对其参考个人的预测能力的人。

  但是,除了经济和治理挑战之外,我们还需要记住,AI首先要扩展并增强了成为人类的含义,尤其是我们解决问题的能力。鉴于安全和可持续性等持续的全球挑战,这种增强能力有望继续受益匪浅,假设我们可以为其监管建立良好的机制。通过明智的监管政策和机构投资组合,我们应该继续扩展并限制潜在的AI应用范围。

  致谢

  我要承认我的合作者,尤其是Karine Perset,招募我为经合组织和许多良好的对话进行这些主题,我的(最近的)博士生Andreas Theodorou和Rob Wortham,Alan Winfield,其中一些内容已经与之相关。经过重新设计和扩展,以考虑专业社会的作用(请参见Bryson和Winfield,2017年),英国金融行为管理局的Karen Croxson,Will Lowe,特别是对于有关国际关系的各节的反馈。感谢经合组织的允许,将上述一些材料重复使用,例如本卷。我还要感谢AXA研究基金会在2017 - 20年度对AI伦理学的部分资助。

  笔记

  1.是,其中一些材料的较旧版本于2017年5月交付给经合组织(Karine Perset),标题为“人工智能和自治系统对社会的当前和潜在影响”,并为他们最近的努力和文件做出了贡献2018年和2019年初。

  2.进一步进行上升分析,奥巴马政府晚期的AI政策文件(技术委员会技术委员会,2016年;总统,2016年)。由于空间和重点的原因,我在这里也没有讨论军事使用AI的特殊情况。这已经是其他重要的学术工作的主题,通常通过与商业和国内AI不同的机制来监管。但是,请参阅Brundage等。(2018);ICRC(2018)。

  3.在这里,面部识别。

  4.选择通过分娩创造生活的选择并不相同。虽然我们可能会撰写一些育儿,但刚刚讨论的处置是与其他灵长类动物共享的,并且不是父母的作者。

  5.由于ICT以及可能的其他进步,例如有效的利他主义运动和发展中国家的数据领导慈善事业,因此,全球,全球,不平等现象正在下降。参见《早期讨论》和《米兰诺维奇》(2016年);Bhorat等。(2016);歌手(2015);加布里埃尔(2017)。

  6.特别是诺兰·麦卡蒂(Nolan McCarty)。

  ?欺诈罪。

  8.这个警告是吗?非常重要。例如,来自政府或商业的许多数据可能对代表谁甚至转录数据的方式有很大的偏见。此类问题可以大大增加给定预测准确性所需的数据量(Meng,2018)。

  9.?世界有效地分为两个互联网,一个内部,一个在大防火墙之外(Ensafi等,2015)。双方同样包含少数在数字经济中运营的极其成功的公司(Yiu,2016; Dolata,2017)。

  参考书目

  - Abelson,H.,Anderson,R.,Bellovin,S.M.,Benaloh,J.,Blaze,M.,Diffie,W.,Gilmore,J.,Green,M.,Landau,S.,Neumann,P.G.,Rivest,Rivest,R.L.,Schiller,J.I.,Schneier,B.,Specter,M。A.和Weitzner,D。J.,2015年。“门垫下的钥匙:要求政府访问所有数据和通信来强制性不安全感。”“网络安全杂志?1(1):1(1):69。

  - 亚当斯(M.,W。R.和Venter,J。C.,1991年。“互补的DNA测序:表达的序列标签和人类基因组项目。”?Science?252(5013):1651–1656。

  - Oker,J。C.和Miti,I。M.2010。“非洲的手机和经济发展。”?经济观点杂志?24(3):207-232。

  - Albrecht,J。P.,2016年。“ GDPR将如何改变世界。”?欧洲数据保护法评论2(3)。

  - Armstrong,H。和Read,R。1995年。“西欧微型国家和欧盟自治区域:规模和主权的优势。”?世界发展?23(7):1229–1245。

  - Y. M.,Shillingford,B.,Whiteson,S。和De Freitas,N.2016。“ Lipnet:句子级唇读。

  - 作者池。2017年。“我,纳税人:为什么征税机器人不是一个好主意 - 比尔·盖茨的提议揭示了自动化构成的挑战。”?印刷版。

  - Autor,D。H.,2015年。“为什么还有这么多工作?工作场所自动化的历史和未来。

  - Bandyopadhyay,A。和Hazra,A。2017年。“对手写行为数据的空间和时间特征的分类器性能的比较研究。”在“智能人类计算机互动:第八届国际会议,IHCI 2016,印度皮拉尼,2016年12月12日至13日,会议记录,A。Basu,S。Das,P。Horain和S. Bhattacharya(编辑)。CHAM:Springer International Publishing,111–121。

  - Barber,M。J.,2016年。“意识形态捐助者,贡献限制和美国立法机关的两极分化。”?政治杂志?78(1):296–310。

  - Barnosky,A。D.,2008年。“ Megafauna Biomass Rightoff是第四纪和未来灭绝的驱动力。

  - Barrett,D。P.,Barbu,A.,Siddharth,N。和Siskind,J.M。2016年。“说您要寻找的内容:语言学会遇到视频搜索。”?IEEE关于模式分析和机器智能的交易?38(10):2069–2081。

  - Barrows,E。M. 2000.?Animal行为台参考:动物行为,生态学和进化的词典。Boca Raton,FL:CRC出版社。

  - Bhorat,H.,Naidoo,K。和Pillay,K。,2016年。“非洲的增长,贫困和不平等互动:关键问题的概述。”UNDP非洲政策说明2016-02,联合国发展计划,纽约,纽约。

  - Bishop,C。M.,1995年。?用于模式识别的神经网络。牛津:牛津大学出版社。

  - Bishop,C。M. 2006.?pattern识别和机器学习。伦敦:施普林格。

  - Boden,M.,Bryson,J.,Caldwell,D.,Dautenhahn,K.,Edwards,L.,Kember,S.,Newman,P.,Parry,V.,Pegman,G.,Rodden,T。,Sorell,T.,Wallis,M.,Whitby,B。和Winfield,A。2011年。“机器人原理”。英国的工程和物理科学研究委员会(EPSRC)。

  - Bostrom,N。2012年。“超级智能的意愿:高级人工代理中的动机和工具合理性。”?思维和机器?22(2):71-85。

  - Breslow,L.,Pritchard,D.E.,Deboer,J.,Stump,G。S.,Ho,A。D.和Seaton,D。T.,2013年。“在全球课堂上学习学习:EDX的第一个MOOC研究。评估?8:13–25。

  - Brundage,M.,Avin,S.,Clark,J.,Toner,H.,Eckersley,P.,Garfinkel,B.,Dafoe,A.,Scharre,P.,Zeitzoff,T.,Filar,B。,安德森(H. Anderson),罗夫(H.,R.,Evans,O.,Page,M.,Bryson,J.,Yampolskiy,R。和Amodei,D。2018年。“人工智能的恶意使用:预测,预防和缓解。”技术报告,牛津大学人类研究所未来,存在风险研究中心,剑桥大学,新美国安全,电子边境基金会和OpenAI中心。

  - Brundage,M。和Bryson,J。J.,2017年。“人工智能的智能质量。”在准备中,可用为?arxiv:1608.08196。

  - Brynjolfsson,E.,Rock,D。和Syverson,C。2017年。“人工智能与现代生产力悖论:期望和统计的冲突。”在人工智能经济学中。芝加哥:芝加哥大学出版社。

  - Bryson,J。J.,2003年。“模块化剂智能的面向行为的设计。”R. Kowalszyk,J。P。Müller,H。Tianfield和R. Unland(编辑)中,在“代理技术,基础架构,工具和应用”中。柏林:施普林格,61-76。

  - Bryson,J。J.,2008年。“体现与模因。”?Mind&Society?7(1):77–94。

  - Bryson,J。J.,2015年。“人工智能和亲社会行为。”在自然和人工系统中的集体代理与合作中:解释,实施和模拟,C。Misselhorn(编辑),《哲学研究》第122卷。柏林:施普林格,281–306。

  - Bryson,J。J.,2018年。“专业不是美德:智能系统和道德体系的设计。”?道德和信息技术?20(1):15-26。

  - Bryson,J。J.,Diamantis,M。E.和Grant,T。D. 2017年。

  - Bryson,J。J.和Theodorou,A。2019年。“社会如何维持以人为中心的人工智能。”在以人为本的数字化和服务中,M。Toivonen-Noro和E. Saari(编辑)。施普林格。

  - Bryson,J。J.和Winfield,A。F. T.,2017年。“标准化人工智能和自主系统的道德设计。”?计算机?50(5):116-119。

  - Bullinaria,J。A.和Levy,J。P.2007。“从单词共呈现统计数据中提取语义表示:一项计算研究。”?行为研究方法?39(3):510–526。

  - Bullough,O。,2018年。“ kleptocracy的崛起:全球化的阴暗面。”?民主杂志?29(1):25–38。

  - Cadwalladr,C。2017a。“透露:美国亿万富翁如何帮助英国脱欧 - 唐纳德·特朗普(Donald Trump)的资助,在使用Facebook数据的“险恶”建议中发挥了关键作用。”?

  - Cadwalladr,C。2017b。“罗伯特·默瑟(Robert Mercer):大数据亿万富翁在主流媒体上发动战争。”?

  - Calinon,S.,D'Haluin,F.,Sauser,E.L.,Caldwell,D.G。和Billard,A。G.2010。–54。

  - Caliskan,A.,Bryson,J。J.和Narayanan,A。2017年。“从语言语言语言中自动衍生的语义包含类似人类的偏见。”?Science?356(6334):183–186。

  - Chessell,M。和Smith,H。C.,2013年。信息管理。伦敦:皮尔逊教育。

  - 基督教徒,A。2009。“!主权,税收和社会契约。”?J. Int’l L.?18:99。

  - Chung,J。S.和Zisserman,A。2017年。“野外唇读。”在计算机视觉-ACCV 2016:2016年11月20日至24日,台湾台北的第13届亚洲计算机视觉会议,修订了选定的论文,第二部分,S.-H.。Lai,V。Lepetit,K。Nishino和Y. Sato(编辑)。CHAM:Springer International Publishing,87-103。

  - Claxton,G.2015。是肉体中的Intelligence:为什么您的思想需要您的身体比想象的要多得多。纽黑文:耶鲁大学出版社。

  - Cooke,M.,1999年。“一个人的空间:自治,隐私,自由。”?哲学与社会批评?25(1):22–53。

  - Cowen,T。1992年。“作为公共物品的法律:无政府状态的经济学。”?经济学和哲学?8(02):249–267。

  - Cowen,T。2011.?伟大的停滞:美国如何吃掉现代历史的所有低音果实,生病,并将(最终)感觉更好。企鹅。

  - A.Crabtree和R. Mortier,2015年。“人类数据互动:社会研究和CSCW的历史课程。”在2015年的ECSCW中:第14届欧洲计算机支持合作工作会议论文集,2015年9月19日至23日,奥斯陆,挪威,N。Boulus-r?dje,G。Ellingsen,T。Bratteteig,M。Aanestad,P。BJ?rn(编辑)。CHAM:Springer International Publishing,3-21。

  - Danezis,G.,Domingo-Ferrer,J.,Hansen,M.,Hoepman,J.-H.,Metayer,D.L.,Tirtea,R。和Schiffner,S.2014。从政策到工程。”欧盟网络和信息安全局(ENISA)的技术报告,希腊赫拉克利翁。

  —Deng,J.,Xu,X.,Zhang,Z.,Frühholz,S。和Schuller,B。2017年。500–504。

  - Dennett,D。C.,2013年。?Intuition Pumps和其他思维工具。纽约:WW Norton&Company。

  - Dennett,D。C. 2017.?从细菌到Bach and Back。伦敦:艾伦·莱恩(Allen Lane)。

  - Devos,T。和Banaji,M。R.2003。“隐性自我和身份。”纽约科学院的Annals?1001(1):177–211。

  - Dolata,美国。2017年。“苹果,亚马逊,Google,Facebook,Microsoft:市场集中竞争策略。”SOI讨论文件2017-01,Stuttgarter Beitr?ge Zur Organisations-unnovationsForschung。

  - 编辑委员会。2018年。“中国的奥威尔式高科技镇压工具。”《华盛顿邮报》。

  - W. Eichhorst和P. Marx,2011年。“改革德国劳动力市场机构:灵活性的双重途径。”?欧洲社会政策杂志?21(1):73-87。

  - Ensafi,R.,Winter,P.,Mueen,A。和Crandall,J。R.,2015年。“在时空上分析中国的大防火墙。”??。

  - 埃里克森(B. J.。

  - eyben,F.,Weninger,F.,Lehmment,N.,Schuller,B。和Rigoll,G.2013。“情感视频检索:大规模分段特征提取的好莱坞电影中的暴力检测。”??8(12):E78506。

  - Ford,M.,2015年。机器人:技术与失业未来的威胁。伦敦:Oneworld。

  - Frischmann,B。M.和E. 2016年。“与合同的工程人”。研究论文493,卡多佐法律研究。可在SSRN上找到:?

  - Gabriel,I。2017年。“有效的利他主义及其批评家。”?应用哲学杂志?34(4):457–473。

  - Gates,C。和Matthews,P。2014年。“数据是新货币。”在2014年新安全范式研讨会的会议录中,NSPW ’14,纽约:ACM,105-116。

  - 吉尔伯特(S.PMID:23397797。

  - Ginsburg,T。2005年。“锁定民主:宪法,承诺和国际法。”?nyuj int’l。L.&Pol.?38:707。

  - Goodman,B。和Flaxman,S。,2016年。“有关算法决策和'解释权'的欧盟法规。Malioutov,K。R.和Varshney(编辑)。纽约:26–30。

  - Grama,A.2003。对并行计算引入。伦敦:皮尔逊教育。

  —Griffin,H。J.,Aung,M。S. H.,Romera-Paredes,B.,McLoughlin,C.,McKeown,G.,Curran,W。和Bianchi-Berthouze,N。2013年。“全身运动的笑声。”在“情感计算和智能互动”(ACII)中,2013年罕见协会会议上。日内瓦:349–355。

  - H.H.,Erb,K.H.,Krausmann,F.,Gaube,V.,Bondeau,A.,Plutzar,C.,Gingrich,S.,Lucht,W。和Fischer-Kowalski,M.2007。量化和绘制人类在地球陆地生态系统中净产量净生产的占用。

  - Haines,T。S. F.,Mac Aodha,O。和Brostow,G。J.,2016年。“我的笔迹中的文字。”?ACM Trans。Graph.?35(3):26:1–26:18。

  - Hanahan,D。和Weinberg,R。2011年。“癌症的标志:下一代。” Cell?144(5):646–674。

  - Hancock,J。T.,Curry,L。E.,Goorha,S。和Woodworth,M.2007。1–23。

  - Herrmann,B。,Th?ni,C。和G?Chter,S.2008。“跨社会的反社会惩罚。”?科学?319(5868):1362–1367。

  - Hofmann,M.,Geiger,J.,Bachmann,S.,Schuller,B。和Rigoll,G.2014。“视觉交流和图像表示杂志?25(1):195–206。

  - Holmes,S.,1988年。“民主的预订和悖论。”?宪法和民主?195(195):199–221。

  - Hsu,F.-H。2002.?BeHind Deep Blue:建造击败世界国际象棋冠军的计算机。新泽西州普林斯顿:普林斯顿大学出版社。

  —Huang,B.,Li,M.,de Souza,R.L.,Bryson,J.J。和Billard,A。2016。–927。

  -人权观察。2018年。“消除意识形态病毒”:中国对新疆穆斯林的压制运动。”技术报告,人权观察。

  - L. W.猎人,A.Bernhardt,Hughes,K。L.和Skuratowicz,E。2001年。(2):402–424。

  - ico。2018年。“在政治运动中使用数据分析的调查:调查更新。”技术报告,英国信息专员办公室。

  - ICRC。2018年。“道德和自动武器系统:人类控制的道德基础?”技术报告,红十字国际委员会,日内瓦。

  - Iyengar,S.,Sood,G。和Lelkes,Y。2012年。“影响,不是意识形态:对两极分化的社会认同的观点。”?公众舆论季刊?76(3):405。

  - Jentzsch,N。2014年。“个人数据的次要使用:福利分析。”?欧洲法律与经济学杂志?44:1-28。

  - Jia,S.,Lansdall Welfare,T。和Cristianini,N。2016年。“通过街头摄像头进行服装分布的时间序列分析。”在“图像分析与认可:2016年ICIAR”的第13届国际会议中,以纪念穆罕默德·卡梅尔(Mohamed Kamel),葡萄牙Póvoadevarzim,2016年7月13日至15日,会议记录,A。Campilho,F。和Karray(编辑)。CHAM:Springer International Publishing,765–773。

  - 约旦,J.J.,Hoffman,M.,Nowak,M。A.和Rand,D。G.,2016年。“使用不计算合作来信号可信赖。”??

  - King,G。和Zeng,L。2001年。“改善国家失败的预测。”?世界政治?53:623–658。

  - Kleinsmith,A。和Bianchi-Berthouze,N。,2013年。“情感身体表达感知和识别:调查。”?情感计算,IEEE交易?4(1):15-33。

  - 克劳斯(L.

  - Laland,K。N.,Odling-Smee,J。和Feldman,M。W.,2000年。“利基结构,生物进化和文化变化。”?行为和脑科学?23(1):131-146。

  - Lamba,S。和Mace,R。2012年。“公平的演变:解释议价行为的差异。”?皇家学会b:生物科学会议论文集?280(1750)。

  - Landau,J.-P。2016年。“民粹主义和债务:欧洲与美国有不同吗?”在普林斯顿·伍德罗·威尔逊学校(Princeton Woodrow Wilson School)和准备。

  - Lawrence,G。W.,Kehoe,W。R.,Rieger,O。Y.,Walters,W。H.和Kenney,A。R.,2000年。“数字信息的风险管理:文件格式调查。”Menlo College Research Comper 93,图书馆和信息资源理事会,华盛顿特区

  - Lee,D。S.,1999年。“ 1980年代美国的工资不平等:分散或最低工资下降?”?《经济学季刊》?114(3):977–1023。

  - E.,MacVarish,J。和Bristow,J。2010年。“风险,健康和育儿文化。”?健康,风险与社会?12(4):293–300。

  - Levy,K。E. C.,2015年。“击败框:美国卡车运输行业的监视抵抗。”论文章节和准备。

  - Liao,S.-H。2005年。“专家系统方法和应用:1995年至2004年的十年评论。”?具有应用的专家系统?28(1):93-103。

  - C。和Pettit,P。2011.?Group Agency:公司代理商的可能性,设计和地位。牛津:牛津大学出版社。

  —Liu,S.,Wang,X.,Liu,M。和Zhu,J。2017年。“迈向机器学习模型:视觉分析的观点。

  - Lowe,W。2001年。“走向语义空间的理论。”在“认知科学学会二十一届年度会议论文集”中,爱丁堡:劳伦斯·埃尔鲍姆(Lawrence Erlbaum Associates),576-581。

  - Mace,R.,1998年。“人类生育能力和财富遗传策略的共同发展。”伦敦皇家学会B:生物科学的哲学交易?353(1367):389–397。

  - Marshall,C。C.,Bly,S。和Brun-Cottan,F。2006年。“我们的数字财产的长期命运:迈向个人档案的服务模型。”?归档会议?2006年(1):25–30。

  - McCarthy,J。1983年。“思维机器的小思想。”今天的心理学?17(12):46-49。

  - N. M. McCarty,Poole,K。T.和Rosenthal,H。2016。?马萨诸塞州剑桥:麻省理工学院出版社,第二版。

  - Meng,X.-L。2018年。“大数据中的统计天堂和悖论(i):庞大的人口法,大数据悖论和2016年美国总统大选。

  - Meyer,B。2016年。“学会爱政府:工会和最低工资的后期采用。”?世界政治?68(3):538–575。

  - Miguel,J。C.和Casado,M.á。2016年。“泡菜(Google,Amazon,Facebook和Apple):四大和B-EXOSYSTEM。”在大型互联网行业团体和未来趋势的动力学中:表观遗传经济学的观点,戈麦斯 - 奥兰加,J。M。Zabala-Iturriagagoitia,J。和Barrutia(编辑)。CHAM:Springer International Publishing,127-148。

  - Milanovic,B。2016。全球不平等。

  - Mill,J。S.,1859年。伦敦:约翰·帕克和儿子。

  - Miller,T。2017。?防风门:气候变化,移民和国土安全部。旧金山:城市灯书。

  - Mishel,L。2012年。“生产率和中位补偿增长之间的楔形。”问题摘要330,华盛顿特区:经济政策研究所。

  - Moeslund,T。B.和Granum,E.2001。“基于计算机视觉的人类运动捕获的调查。”?计算机视觉和图像理解?81(3):231–268。

  - Morales,A.,2018年。“英国脱欧已经花费了英国的花费,而不是其欧洲。预算支付,研究表明。”?彭博。

  - Murphy,K。P. 2012.?Machine Learning:概率的观点。马萨诸塞州剑桥:麻省理工学院出版社。

  - Newman,E。J.,Sanson,M.,Miller,E。K.,Quigley-McBride,A.,Foster,J。L.,Bernstein,D。M.和Garry,M。2014年。PLOS ONE?9(2):E88671。

  - Ngai,E。W. T.,Hu,Y.,Wong,Y。H.,Chen,Y。和Sun,X。2011。决策支持系统?50(3):559–569。

  总统E. O.,2016年。“人工智能,自动化和经济。”技术报告,美国总统执行办公室。

  - O’Reilly,T。2017.?wtf?未来以及为什么取决于我们。纽约:兰登书屋。

  - Pasquale,F。2015。?黑匣子协会:控制金钱和信息的秘密算法。马萨诸塞州剑桥:哈佛大学出版社。

  - Person,R。,2018年。“灰色区域战术是不对称的平衡。”论文在美国政治学协会年会上发表。

  - Perzanowski,A。和Schultz,J。2016.所有权的终结:数字经济中的个人财产。马萨诸塞州剑桥:麻省理工学院出版社。

  - Pinker,S。,2012年。伦敦:企鹅。

  - Price,G。R。1972年。“ Fisher的'基本定理'明确表示。”“人类遗传学的年鉴?36(2):129-140。

  - Reed,S.,Akata,Z.,Yan,X.,Logeswaran,L.,Schiele,B。和Lee,H。,2016年。“生成的对抗文本到图像合成。”在第33届机器学习国际会议的会议上?48:1060–1069。

  - Roithmayr,D.,Isakov,A。和Rand,D。2015年。“法律是否应跟上社会的步伐?相对更新率决定了机构惩罚和公民对公共物品的共同进化。”?游戏?6(2):124。

  - Romanes,G。J. 1883.?Animal Intelligence。纽约:d。阿普尔顿。

  - Rosner,G.,2014年。“谁拥有您的数据?”在2014年ACM国际普遍和普遍计算会议论文集:兼职出版物,Ubicomp ’14,纽约州兼职:ACM 623–628,。

  - Roughgarden,J。,Oishi,M。和Ak?Ay,E。2006年。“生殖社会行为:取代性选择的合作游戏。

  - 鲁塞尔(S.新泽西州Englewood Cliffs:第三版Prentice Hall。

  - Santoni de Sio,F。和Van den Hoven,J。2018年。“对自治系统的有意义的人类控制:一种哲学说明。”机器人技术和AI的边界5:15。

  - Sartori,G。,Orru,G。和Monaro,M。2016年。“通过手动运动的运动学分析来检测欺骗。”?国际心理生理学杂志?108:16。

  - Scheidel,W.,2017年。马萨诸塞州剑桥:普林斯顿大学出版社。

  - Schena,M.,Shalon,D.,Heller,R.,Chai,A.,Brown,P。O.和Davis,R。W.,1996年。“平行人类基因组分析:基于微阵列的1000个基因的表达监测。”?国家科学院?93(20):10614–10619。

  - Schlager,K。J.,1956年。“系统工程:现代发展的关键。”?ire工程管理交易?(3):64–66。

  - Schmitt,J。,2013年。“为什么最低工资对就业没有明显影响。”技术报告22,华盛顿特区经济与政策研究中心。

  - Schuller,B.,Steidl,S.,Batliner,A.,Hirschberg,J.,Burgoon,J.K.,Baird,A.,Elkins,A.,Zhang,Y.2016年。“ Interspeech 2016计算副语言学挑战:欺骗,真诚和母语。”在Interspeech的论文集?2001 - 2005年。

  - Selinger,E。和Hartzog,W。,2017年。“晦涩和隐私。”在未来的空间中:技术哲学的同伴,J。Pitt和A. Shew(编辑)。纽约:Routledge,印刷中。

  - Silver,D.,Huang,A.,Maddison,C.J.,Guez,A.,Sifre,L.。等。2016年。“掌握深度神经网络和树木搜索的游戏。”?自然?529(7587):484–489。

  - Singer,P.2015。您可以做的最佳:利他主义在道德上改变思想的有效性。墨尔本:文字出版。

  - Singh,J.,Pasquier,T.,Bacon,J。,Ko,H。和Eyers,D。2016年。“二十个有关云支持物联网的安全考虑。”?3):269–284。

  - Susper,M.,2005年。?马萨诸塞州波士顿:汤普森,第二版。

  - 史密斯,B。2018年。“面部识别技术:对公共法规和公司责任的需求。”?微软在这些问题上。

  - Soares,N。和Fallenstein,B。2014年。“将机器智能与人类利益相结合的代理基础:技术研究议程。”未发表的白皮书,可用吗?

  - Solaiman,S。M.,2017年。“机器人,公司,偶像和黑猩猩的法律人格:对合法性的追求。”?人工智能与法律?25(2):155-1795。

  - 斯图尔特(A.

  - Stoddart,D。M.,1990年。剑桥:剑桥大学出版社。

  - Suwajanakorn,S.,Seitz,S。M.和Kemelmacher-Shlizerman,I。2017年。“合成奥巴马:从音频中学习唇部同步。”??

  - 塞尔维斯特(K.在准备。

  - 技术委员会技术委员会,N。S. a。2016年。“为人工智能的未来做准备。”技术报告,美国总统执行办公室。

  - Tepperman,J。,2016年。修复:国家如何利用危机解决世界上最严重的问题。纽约:蒂姆·杜根(Tim Duggan)书籍。

  - J.,Zollhofer,M.,Stamminger,M.,Theobalt,C。和Nie?ner,M。2016年。在IEEE计算机视觉和模式识别会议论文集?2387–2395。

  - Touretzky,D。S. 1988年。“关于恒温器的适当处理。”?行为和脑科学?11(1):5556。

  - Trewavas,A.2005。“绿色植物作为智能生物。”植物科学的趋势?10(9):413–419。

  - Valentino,B。A.2004。?网金属解决方案:20世纪的大规模杀戮和种族灭绝。纽约州伊萨卡:康奈尔大学出版社。

  - Valstar,M。F.和Pantic,M。2012年。“对面部动作的时间阶段的完全自动识别。”“系统,人和控制论”,B部分:控制论,IEEE,IEEE Transactions on 42(1):28-43。

  - Van Lange,P。A. M.,De Bruin,E。,Otten,W。和Joireman,J。A.,1997年。“建立亲社会,个人主义和竞争取向的发展:理论与初步证据”。《人格与社会心理学杂志》 73(73(4):733–746。

  - Van Schaik,C。,Graber,S.,Schuppli,C。和Burkart,J。2017年。“动物中社会学习的生态及其与智力的联系。”??《西班牙心理学杂志》 19。

  - Vincent,J。,2016年。“人工智能将使伪造的图像和视频比以往任何时候都更容易。”?The Verge。

  - Weber,R。H.,2010年。“物联网:新的安全与隐私挑战。”?计算机法与安全评论?26(1):23–30。

  - Widrow,B。,Rumelhart,D。E.和Lehr,M。A.1994。“神经网络:行业,商业和科学中的应用。”?ACM?37(3):93–105。

  - Williams,C。P.,2010年。“量子计算中的探索。伦敦:Springer-Verlag。

  - Winston,P。H.,1984年。马萨诸塞州波士顿:Addison-Wesley。

  - Wolpert,D。H. 1996a。“学习算法之间存在先验区别。”?神经计算?8(7):1391–1420。

  - Wolpert,D。H. 1996b。“缺乏学习算法之间的先验区分。”?神经计算?8(7):1341–1390。

  - Wright,G。1974年。“新交易支出的政治经济学:计量经济学分析。”?经济学和统计评论?56(1):30–38。

  - Wu,Y.,Schuster,M.,Chen,Z.,Le,Q. V.,Norouzi,M.,Macherey,W.,Krikun,M.,Cao,Y.,Gao,Gao,Q.,Macherey,K.Klingner,J.,Shah,A.,Johnson,M.,Liu X.G.,Patil,N.,Wang,W.,Young,C.,Smith,J.,Riesa,J.,Rudnick,A.,J。,2016年。“ Google的神经机器翻译系统:弥合人与机器翻译之间的差距。”?CORR,ABS/1609.08144。

  - Yan,X。2006年。“中国的崛起及其权力地位。”《中国国际政治杂志》 1(1):5-33。

  - YIU,E。,2016年。“阿里巴巴以市场价值为亚洲最大的公司:归功于其收入的新经济公司,这些公司归功于技术和互联网,现在比石油炼油厂,制造商和银行更有价值。。

  - 您W.,Kosinski,M。和Stillwell,D。2015年。“基于计算机的人格判断比人类所做的判断更准确。1040。