钱来了,还能坚持初心吗?OpenAI成立于2015年,是一家非营利性研究机构。它的愿景是建立一个安全有益的通用人工智能(AGI),由埃隆马斯克、山姆奥特曼等人宣布投资10亿美元。.然而,在2019年,OpenAI转变为一家名为OpenAILP的营利性公司,由一家名为OpenAIInc的母公司控制。此时的OpenAI是一种“利润上限”结构,将投资回报率限制在原始金额的100倍。如果你投资1000万美元,你最多只能得到10亿美元。看起来回报率不错。变革几个月后,微软宣布注资10亿美元。正如我们在GPT-3和Codex中看到的那样,OpenAI与微软的合作意味着允许后者将部分技术商业化。在科技领域,OpenAI是引领人类走向更美好未来的最大希望之一,如今却被成本和算力的需求拉回了现实。我们还能相信它会引领我们走向真正的人工智能吗?AILab,利润至上,OpenAI是一个人工智能研究实验室,其野心与自身资源相差甚远。GPT-3论文发表后,外界比较流行的一种观察方式是帮他们计算成本。据估计,OpenAI在训练GPT-3上花费了1200万美元——只是训练。如果没有后期要求更大回报的funder,这家公司怎么花那么多钱写论文?因此,当OpenAI需要投资时,他们与拥有云服务的微软建立了合作伙伴关系。至于价格,这是一个未公开的、模糊的系统商业化许可。麻省理工科技评论记者KarenHao的一篇调查文章揭示了OpenAI的口是心非。为什么一家以确保所有人拥有更美好未来为愿景的公司突然决定吸收大量私人资金以“保持相关性”?从非营利性到营利性的转变引发了公众乃至公司内部的强烈批评。艾伦人工智能研究所所长OrenEtzioni表示怀疑:“我不同意非营利组织无法具有竞争力的观点……如果IBM规模更大,资金更充裕,今天仍然会做得更好。”将成为世界第一。”为ViceNews撰稿的CarolineHaskins不相信OpenAI仍会忠于其使命:“人类从未像现在这样依赖风险投资机构变得更好。”从技术角度来看,OpenAI目前的研究方向更大型神经网络需要更大的计算能力和海量的数据,只有有可比科技巨头的投入,我们才能走上这条路。但正如Etzioni所说,这并不是AI领域取得最先进成果的唯一途径.有时你需要创造性地思考新的想法,而不能只考虑奇迹OpenAI如何缩小道路GPT-2、GPT-3“危险”语言生成器2019年初,已经盈利的公司OpenAI推出GPT-2,一种强大的语言生成模型,能够生成近似于人类自然语言的文本。研究人员认为GPT-2在当时是一个巨大的飞跃,但开源太危险了。工程师们担心GPT-2将用于生成假新闻、垃圾邮件和误导性信息。但没过多久,OpenAI认为没有明显滥用的证据,于是开源了。罗格斯大学教授BrittParis表示:“看起来OpenAI正在利用围绕人工智能的恐慌情绪。”很多人把GPT-2的报告当成了一种宣传策略。正如OpenAI声称的那样强大。从营销的角度来看,这确实可以引起关注,但OpenAI否认了这些指控。如果GPT-2没有OpenAI声称的那么强大,为什么要让它看起来比实际更危险?如果真的很强大,为什么仅仅因为“没有发现滥用的有力证据”就完全开源了?不管怎样,OpenAI似乎并没有遵循自己的道德标准。2020年6月,GPT-3论文上传到arXiv,然后以API的形式对外开放。OpenAI似乎认为这个比GPT-2大100倍、功能强大的新系统足够安全,可以与世界分享。他们设定条款来单独审查每个访问请求,但他们仍然无法控制系统最终的用途。他们甚至承认GPT-3可能会在坏人手中出错,从误导性信息、垃圾邮件、网络钓鱼、滥用法律、政府内容,到学术欺诈、社会工程,再到性别、种族和宗教偏见。他们认识到了这些问题,但还是决定让用户付费测试。为什么通过API而不是开源模型发布它?OpenAI回答说,这是为了资助他们正在进行的人工智能研究、安全和政策工作。总结一下:负责保护我们免受有害人工智能侵害的公司已决定让人们进入一个能够制造虚假信息和危险偏见的系统,这样他们就可以负担得起昂贵的维护费用。这看起来不像是“对所有人都物有所值”。因此,社交网络上出现关于GPT-3危害性的讨论也就顺理成章了。Facebook人工智能负责人杰罗姆·佩森蒂(JeromePesenti)写了一条推文,他在推文中举了一个例子。为了利用GPT-3的独特性,加州大学伯克利分校的学生LiamPorr让系统写了一篇关于生产力的文章,并分享了它(但没有说它是人工智能生成的)。这篇文章愚弄了很多人,甚至登上了HackerNews的头条。试想,如果像他这样一个人畜无害的学生,能用一篇人工智能写的文章来忽悠大家,那一群心怀恶意的人会拿它做什么呢?比如散播假消息?利亚姆·波尔的文章。链接https://adolos.substack.com/p/feeling-unproductive-maybe-you-should“平均而言,人类在检测GPT-3175B生成的长文章时的准确率仅略高于52%。这表明,对于500字左右的新闻,GPT-3可以持续生成假作品。然而,Copilot由于盲目使用GitHub公共仓库的开源代码进行训练而饱受诟病,有网友提出了一些问题:AI生成的代码是属于我的还是属于GitHub的?生成的代码有什么许可证?适用于?如果生成的代码成为侵犯版权的理由,谁应该受到惩罚?在推特上,有开发者分享了Copilot抄袭一整段版权代码的例子:Copilot照原样复制了《雷神之锤》中的经典代码,甚至评论也没有留下,有网友在下方回复,“我们有证据表明Copilot直接复制了整个GPL代码,可见Copilot在商业环境中是一个非常危险的工具。”更深入一点,即使Copilot不逐字复制代码,这里也存在一个道德问题:像GitHub或OpenAI这样的公司在成千上万开发人员编写的开源代码上训练这些系统,然后将这些系统卖给同样的人开发者,这样合适吗?对此,程序员兼游戏设计师EvelynWoods表示,“这感觉就像是对开源的嘲弄。”我们应该寄希望于OpenAI吗?OpenAI现在的真实愿景是什么?难道他们与微软的联系如此紧密以至于忘记了为“人类进步”而奋斗的初衷?还是他们真的认为自己拥有最好的工具和头脑来走这条路,即使他们愿意将自己的灵魂卖给一家大型科技公司?我们真的愿意让OpenAI按照它的愿景来建设未来吗?还是我们想使我们的愿景多样化并将其与经济利益分开?OpenAI正在引领更复杂的人工智能,但有许多机构与做同样事情的大公司没有财务联系。他们可能不喜欢舒服地躺在钱堆里,所以我们有理由更加关注他们所做的工作。归根结底,大型科技公司的首要任务不是满足所谓的科学好奇心,不是探索通用人工智能,也不是打造最安全、最负责任、最道德的人工智能,而是赚钱。他们会不惜一切代价这样做,即使这意味着走一条我们大多数人都避免的晦涩路径。OpenAI的联合创始人马斯克甚至同意这些批评:马斯克:我认为OpenAI应该更加开放。OpenAI的人不应该忘记,他们不能不惜一切代价达到他们的目的。这些手段可能不利于更高的目标。我们想要通用人工智能吗?从科学的角度来看,答案不能是否定的。人的科学好奇心是无限的,但是,我们应该时刻评估潜在的危险。核聚变很了不起,但核弹却不是。我们是否不惜一切代价想要AGI?从道德的角度来看,答案不可能是肯定的。这些快速发展的技术将影响我们所有人,所以我们应该意识到这个问题。那些只关注眼前利益的人迟早要为后果承担很多责任。
