中国的人工智能研究人员数量与美国相当,但在机器学习等关键领域落后。为什么??政府希望弥补这一不足。俯瞰北京,在繁忙十字路口一侧的一栋低矮建筑中,戴着薄框眼镜、乌黑头发的中年科学家温吉荣兴奋地描述了一个可以推动世界人工智能发展的项目.(AI)中最热门领域之一的项目。文继荣教授领导北京人工智能研究院(BAAI)的一个团队,这是一个政府资助的研究实验室,正在测试一种强大的新语言算法——类似于GPT-3,OpenAI研究人员去年6月透露的一个程序,它可以消化大量文本并生成非常连贯的自由言论。“这是一个非常大的项目。”他笑着说:“这需要大量的计算基础设施和资金。”北京人民大学文继荣教授自从受聘于北京致远人工智能研究院(BAAI)兼职后,希望创造出比GPT-3更智能的算法。他计划将机器学习与事实数据库相结合,将图像和视频与文本一起输入算法,希望创建一种对物理世界有更丰富理解的算法——例如,“猫”和“毛皮”这两个词更不仅仅是文字。通常在同一个句子中并且在视觉上彼此相关。包括OpenAI在内的其他顶级人工智能实验室也在做类似的工作。BAAI吸引文季荣教授的原因之一是其极其可观的计算资源。他对此解释道:“北京致远人工智能研究院(BAAI)得到了政府的大力支持,拥有强大的数据和计算能力。”他创建的语言模型是BAAI的众多项目之一,旨在从根本上推动人工智能的发展和进步,体现中国科技的新时代。虽然国产技术的崛起还有很长的路要走,但目前来看,我们主要擅长从某些专业领域取得创新成果,并以新的方式进行布局。这一点在人工智能领域尤为明显。从国家出台的人工智能系列战略发展规划可以看出,这个领域对于我们中国想要成为真正的超级大国来说是至关重要的。从长远来看,北京致远人工智能研究院(BAAI)取得的一些突破可能会直接惠及国内各个科技领域。文季荣教授表示,新语言系统可以作为智能助手,帮助每一位市民在线办理各类公共服务,如办理签证、驾照或营业执照等。无需花费数天时间填写文书工作和排队等候,这个聪明的助手可以指导市民通过繁文缛节。这样既解决了繁文缛节给我们带来的麻烦,又高效、严格地验证了每一个填写人的信息,可谓是完美的双赢。项目负责人、曾在中国最大的搜索公司百度担任工程师的刘占良说,他的团队已经为北京市机动车管理局打造了原型车。“这真的是一个非常艰巨的挑战,”他说。当然,我们还有其他方式可以受益。例如,在当今谣言充斥社交媒体或一些非法活动的电话记录的时代,这种更复杂的人工智能语言系统可能在搜索这些不法行为方面非常有用。而且,我们的在线社会已经将人工智能作为一种辅助工具,包括用于犯罪搜查和审查。从这个角度来看,人工智能系统的使用对我们的社会保障极为有利,但从另一个角度来看,它同样适用于任何商业或个人应用,我们需要提防它的不当使用。这也是在商业化方面需要严格管理的赛事。正因如此,包括前段时间人脸识别的安全问题,我们对人工智能的合理使用持谨慎态度。北京致远人工智能研究院(BAAI)的几个项目旨在为人工智能的商业应用设定红线,以抵御道德挑战并遏制大型科技公司的滥用行为。“每个国家都在努力在这个问题上取得进展,以确保它得到适当的控制,我认为这实际上并没有被证明是完全简单的,”《大脱钩》(伟大的脱钩)一书的作者NigelInkster说道,一本讲述中美关系历史演变的书。雄心勃勃的人工智能(AI)计划2017年,该国发布的一项综合战略计划明确了该国对人工智能的雄心。明确了人工智能研究人员“到2025年取得根本性突破”的宏观目标,并呼吁我国到2030年成为“世界主要创新中心”。一年后,北京致远人工智能研究院(BAAI)成立中关村。作为创新中心社区的中关村为其提供了得天独厚的资源和环境,例如搜索引擎公司百度、搜狗、PC制造商联想以及众多电子产品商店。近年来,随着这些电子商店开始消失,数十家初创科技公司如雨后春笋般涌现,其中许多专注于为人工智能寻找有利可图的应用——在制造、机器人、物流、教育、金融等领域。.今年晚些时候,BAAI将搬入离其现有办公室不远的新大楼。该地点既具有象征意义又具有实用性,因为它距离中国两所最负盛名的大学清华大学和北京大学以及政府去年开放的中关村集成电路仅几步之遥,以吸引当地的微芯片公司设计园区。受疫情影响,国内外人员往来受到一定限制。但这并不妨碍国外学者和媒体的关注。威尔·奈特(WillKnight)是人工智能领域的资深编辑。他在接受采访时表示,一些在BAAI工作的学者给他留下了深刻的印象。他还通过Zoom与研究所的研究人员交谈,行政助理通过微信视频带他参观。“通过小屏幕,我看到工程师和支持人员坐在一个开放式办公室里,周围环绕着郁郁葱葱的盆栽植物,”他回忆道。接待处的墙上挂着一块牌匾,标明研究所的各个部门,包括智能信息处理和人脸结构分析。还有一块大牌写着中心的宗旨:学术思想、基础理论、顶尖人才、企业创新、发展方针。“一组BAAI正在探索支撑机器学习算法的数学原理,这一努力可能有助于改进当今的机器学习算法。另一组专注于从神经科学中汲取见解,以构建更好的人工智能(AI)程序。当今最著名的机器学习方法,深度学习,大致上受到人脑中神经元和突触从输入中学习的方式的启发。更好地理解动物和人类认知背后的生物学过程可能会导致新一代更智能的机器。第三组在该研究所专注于设计和开发微芯片,以更高效地运行人工智能应用程序。“创新的本质是不确定性,也许没有什么比人工智能更不确定了。”-NoamYuchtman,伦敦经济学院许多隶属于BAAI的研究人员正在进行前沿研究。其中之一是研究如何使深度学习算法更加高效和紧凑。另一项研究是“神经形态”计算机芯片,它可以通过镜像生物过程从根本上改变计算机的工作方式。中国AI人才培养的困境:不是培养的人才数量不足,而是大部分人最终都去了美国。从目前来看,中国确实有很多顶尖的人工智能学术人才,但与美国、加拿大或者一些欧洲国家相比,国内顶尖专家(指留在中国的专家)还是比较少的。保尔森基金会(PaulsonInstitute)去年6月发布的一项人工智能研究论文研究发现,中国和美国每年产生的人工智能(AI)研究人员数量大致相同,但其中绝大多数最终都在美国工作。说明我们未来在培养高层次人才的时候,不仅仅是一个简单的培养人数的问题,而是如何转变培养人才的战略方向)特朗普执政期间,利用了我们无法制造的优势最先进的微芯片。在实施制裁后,这个问题最近变得更加紧迫,其中最明显的目标是华为,它指控华为涉嫌不当提供数据并切断其制造高端智能手机所需的芯片供应在2019年,美国扩大对中国的制裁,禁止美国公司与多家人工智能公司开展业务,并无端指责它们提供所谓的监控技术。现在到了2021年,拜登总统可能会采取措施反击特朗普的不同做法,但他不太可能忽视中国技术崛起带来的威胁。北京致远人工智能研究院(BAAI)首任所长黄铁军教授在停顿了很长时间后,以极其谨慎和严谨的态度表达了自己的看法和想法。他认为,该研究所是仿照西方机构,将不同学科结合起来,以促进中国人工智能(AI)的发展。他接着解释说,尽管中美关系困难重重,但研究机构与此类机构建立联系至关重要。先后派出研究人员访问加拿大蒙特利尔算法学习研究所(MILA)和英国艾伦图灵研究所。艾伦图灵研究所,两个世界顶级的人工智能专业研究中心。来自普林斯顿大学和加州大学伯克利分校等美国机构的人工智能科学家担任该研究所的顾问委员会成员。中国并不是唯一投资人工智能的国家。美国国防高级研究计划局也开始部署具有潜在军事应用的研究。然而,许多西方国家对中国如何利用技术推进我们的潜在利益和价值观持谨慎态度——例如,将数字技术与旨在与邻国建立经济和基础设施联系的“一带一路”倡议联系起来。有了与这个因素的明确联系,就不难看出BAAI的工作有着广泛的议程。BAAI的研究可以作为软实力的工具,例如通过技术标准。许多在中国学习的西方学生也很清楚,政府制定标准的最终结果是使国内公司受益并塑造人们对技术的看法和规范的一种方式。然而,每当这些消息到达西方媒体时,它们就变得完全不一致了。中国企业一直在积极制定先进的5G移动网络的技术标准。BAAI的一个研究小组专注于人工智能的技术标准,并于去年7月发布了机器学习文章的拟议符号。一些西方研究人员表示,中国正在做的一些事情并不罕见。DanitGal是剑桥大学Leverhulme智能未来中心的研究员,专门研究人工智能的伦理问题,此前曾担任联合国技术顾问。北京致远人工智能研究院(BAAI)成立时,她正在北京大学读书,并参加了它的几次会议。她说,当该研究所正在进行认真的研究时,其他国家却将注意力集中在这些争议上,这是不公平的。“中国正在做的事情,不管是真是假,都不是某个国家独有的。”她继续说:“我来自以色列,以色列的监控和边境事件由微软提供支持。”(微软投资了以色列公司AnyVision,该公司提供在约旦河西岸检查站使用的面部识别软件,但在2020年3月表示将剥离其股份。)黄铁军教授和BAAI的其他研究人员表示,他们将进一步沟通与更多的国际研究人员。在学习和探索新技术的同时,我们也可以间接推动中国的新兴技术。黄铁军教授在论坛中提到:“BAAI是一个分享平台,把不同国家、不同答案、不同背景、不同观点的人聚集在一起,让他们可以互相交流,互相了解。“这种参与是有道理的,但重要的是要了解更广泛的背景,”专注于中国问题的胡佛研究所教授格伦蒂弗特说。“我绝对不认同他们出现脱钩现象,他们是最值得尊敬的人,是最有诚信的人。”谈到研究所的工作人员和研究人员时,他说:“但最重要的是,所有研究院的成果和努力,背后都有政府和资金默默支持和保障,我们西方国家很多机构做不到。?2019年夏天,疫情爆发前,威尔·奈特(WillKnight)拜访了北京自动化所研究员——自动化所新人、BAAIAI伦理与安全中心主任曾毅教授研究中心。他的团队代表北京市政府制定了一份涵盖人工智能使用的道德规范。该准则目前是自愿性的,其中规定:人工智能不应该歧视;它不应以构成安全风险的方式使用;如果人工智能系统出现异常,最终用户可以选择退出。曾毅教授还向小编展示了一份由不同国家的企业和政府制定的AI伦理规范共有47条。他表示,他的团队希望与来自世界各地的研究人员共同探讨人工智能偏见、隐私保护等问题,从而更好地解决与人工智能相关的一些问题。信息泄露和滥用。但值得注意的是,不宜盲目关注人工智能的发展和进步,使其在任何领域都可以无限扩展和应用。然而另一个极端是,像西方的一些机构一样,过度执着于人工智能算法的伦理道德问题,最终陷入为了定义而定义的死循环,这只会让技术和技术的发展停滞不前。违背了让AI变得更好的初衷。人工智能的发展必然在这两个边界之间盘旋,这个否定自我否定的过程是一个良性循环。去年11月,阿里巴巴旗下的金融科技公司蚂蚁集团宣布暂停在香港和上海的IPO上市计划,监管机构将对阿里巴巴可能存在的反垄断滥用行为展开调查。《大脱钩》(TheGreatDecoupling)一书的作者英克斯特表示,政府“不遗余力地提醒国内私营部门,极端扩张和膨胀是一种极不可取的行为”。目前,中国正在起草一部重大的新隐私法,它将严格规范企业可以收集和使用的数据——这将在一定程度上保护我们的个人信息不被泄露,同时也改善了执法和审查的状态.搜索数据的治理系统。BAAI目前正在进行的一些项目工作很好地反映了这个新时代。为了应对疫情,BAAI的一个团队开发了一款蓝牙Covid-19接触者追踪应用程序,该应用程序可以在不收集身份信息的情况下提醒人们注意可能的密切接触者。BAAI的一位发言人表示,该应用程序已经在中关村附近的几个办公室进行了测试,似乎运行良好。伦敦经济学院教授诺姆·尤赫特曼(NoamYuchtman)的一篇论文借鉴了来自中国的证据,表明自上而下的人工智能干预的好处是独一无二的,因为该算法需要大量数据和计算机能力,而且政府可以保证足够的数据量和可靠的财政支持。但他补充说,这种快速发展和不可预测的技术也可能给政府带来一些潜在问题(包括如何正确使用它和个人信息的安全)。正如其在文章中所写:“创新的本质是不确定性,也许没有什么比人工智能更不确定了。
