当前位置: 首页 > 技术突破

我们已经准备好迎接“神经资本主义”的时代。

时间:2024-02-27 18:08:27 技术突破

  近几十年来,神经技术已经从一种用于脑部成像的基本技术发展到着重于观察和操纵的复杂学科。该研究领域正在进入一个新的未知阶段,在该阶段,思想阅读和心灵感应可能成为现实。就像像Facebook这样的数字巨头正在加入创建脑机界面的竞赛一样,专家也呼吁就神经技术的道德困境进行辩论。他们警告说,对gug-ho技术的乐观情绪 - 问题不再能做什么,而是我们该怎么办。

  美国公司Neuralink由百万富翁埃隆·马斯克(Elon Musk)创立,部分由微软资助,其雄心勃勃的计划可以通过嵌入大脑中的细线将人类思想与互联网联系起来。Neuralink的最初目标是为治疗目的分发这种脑机界面,例如,截肢者可以控制仿生假肢 - 但它们的长期目的是通过“与人工智能的共生性”来提高人类能力,以提高人类能力。。

  Neuralink针对人类受试者的首次测试定于2020年中期进行,而超人类主义项目将需要更多年的时间才能起飞。但是,已经是时候考虑该公司计划的干预措施对用户的大脑产生什么副作用:它们是否容易受到脑海的影响?还是违反亲密的神经数据?个性的改变呢?这些都是真正的担忧,即苏黎世联邦理工学院(瑞士)的生物伦理学家Marcello Ienca称其为“神经资本主义”阶段。

  ?

  同时,Facebook在2017年透露,他们的目的是开发一个脑波传感器,该传感器允许用户只使用自己的想法输入100个单词(这通常比在机械键盘上触摸式较慢,但比在智能手机上写的速度更快屏幕)。最终,马克·扎克伯格(Mark Zuckerberg)的公司希望销售一个非侵入性脑电图头带,可用于控制音乐应用或与虚拟现实系统互动。

  脑机的未来

  一些分析人士认为,投资者炒作了对神经技术的未来的期望,因为仍然缺乏实现拟议短期目标所需的神经科学知识和非侵入性技术。但是,这些目标也不是科幻小说:近年来的进步,例如在神经营销或神经聚集中,证明了该领域正在发展的令人惊讶的速度 - 而且这种速度只会随着这些投资的巨大投资而提高公司。

  2019年,Facebook与加州大学旧金山分校合作宣布了他们的第一个结果:“语音解码器”的开发可以通过分析颅骨下方的射击神经元来解密简单的通信。他们的研究招募了正在为侵入性手术做准备的癫痫患者 - 研究小组表明,使用植入物,他们可以阅读患者的思想,并区分出一个问题的几个可能的答案之一:“您更喜欢听什么乐器”(例如,“小提琴”)。

Facebook使用的大脑界面的原型来“读取”思想词。信用:Facebook真人实验室

  从科学和技术的角度来看,结果是有希望的,但是从社会角度来看,结果令人震惊。在该研究发布的前几周,美国联邦贸易委员会(FTC)以50亿美元的罚款猛烈罚款,允许咨询公司Cambridge Analytica未经同意就能为社交网络用户创建政治概况。

  允许这些公司进入大脑的用户可以使用哪些隐私或安全保证?目前,没有 - 这就是问题专家正在警告的问题。这样的专家是杜克大学神经伦理学教授Nita Farahany。在接受麻省理工学院技术评论的采访时,她说:“对我来说,大脑是一个安全的思想自由,幻想和异议的地方。在没有任何保护的情况下,我们将接近跨越隐私的最终边界。”

  宣言“神经视线”

  哥伦比亚大学神经科学家Marcello Ienca和Rafael Yuste这样的激进主义者都同意:政治和道德辩论落后于技术发展。他们敦促科学家,技术人员和政策制定者预见可能的风险并起草特定的立法。他们认为,法律应阐明一系列神经照射,以保护用户,并指导脑技术的发展朝着对所有人有益的未来。

  在《学术杂志生命科学,社会与政策》的文章中,艾卡和他的同事罗伯托·安多尔(Roberto Andorno)为新的神经技术时代提出了四个新的人权。首先,认知自由的权利,这将允许人们自由决定是否使用新型的脑机界面,例如,当雇主或政府要求时。第二,心理隐私权:选择何时共享神经数据以及在哪些条件下。IENCA预见到有可能窃听思想,非自愿自我罪名或购买和销售神经数据的可能性,这是自剑桥分析丑闻以来特别紧迫的关注点。

  第三,Ienca和Andorno提出了精神完整性的权利,该权利保护用户免受神经技术造成的身体或心理伤害。最后,心理连续性的权利,这在机器能够未经事先同意的情况下改变人格的世界中保护了个人身份。拉斐尔·尤斯特(Rafael Yuste)的提议 - 由他在哥伦比亚大学领导的神经照射计划小组提出的,主要与以前的提案重叠,但其中包括两个额外的权利:平等获得心理增强权的权利,并获得算法偏见和歧视权的保护权。

哥伦比亚大学神经科学家拉斐尔·尤斯特(Rafael Yuste)指挥神经照射计划。资料来源:Wikimedia Commons

  Yuste在接受报纸ElPaís采访时指出,道德责任首先是技术人员和像他这样的神经科学家,他们研究了大脑的工作原理以及如何被操纵。Yuste对神经技术在未来几年可能取得的成就有现实的看法,他担心未来会使我们没有准备好。他说:“我们必须直接去社会和政策制定者,以避免虐待。”“我们有历史责任。我们正在一个时候决定我们想要什么样的人类。”

  布鲁诺·马丁

  @TurbanMinor