作者|彼得·韦纳策划|YizhouChatGPT人气依旧霸榜,陆续被众多明星点赞!国外微软的比尔盖茨、纳德拉、特斯拉的马斯克,国内的李彦宏、周鸿祎、张朝阳,甚至科技圈非作家的郑渊洁,也开始相信“未来作家可能会失业,因为ChatGPT的出现。”又比如惊动谷歌退休的大佬布林,美团前联合创始人王慧文也再次出山,发豪帖广纳AI人才,打造中国OpenAI。生成式AI,以ChatGPT和DALL-E为代表,以令人眼花缭乱的风格编写充满细节、想法和知识的文本,抛出华丽的答案和艺术作品。由此产生的人工制品是如此多样和独特,以至于很难相信它们来自机器。所以以至于一些观察家认为,这些新的AI终于跨过了图灵测试的门槛。换句话说:门槛不是稍微跨过,而是被炸成碎片。这种AI艺术太好了,“另一群人在失业边缘。”然而,经过一个多月的发酵,人们对人工智能的奇迹感正在消退,生成式人工智能的“原始明星光环”正在逐渐消失。,whileChatGpt“吐”了一些愚蠢甚至错误的东西。再举个例子,有些人在小学美术课上使用了流行的老式逻辑炸弹,要求拍摄夜晚的太阳或暴风雪中的北极熊。其他人问了更奇怪的问题,显示出人工智能的情境意识的局限性。本文梳理了生成式AI的“十宗罪”。这些罪名读起来可能是酸葡萄,(作者也嫉妒AI的强大,让机器接手,作者就丢饭碗了,哈哈~)不过是提醒,不是抹黑。1.抄袭抄袭更难被发现当创建生成式AI模型(如DALL-E和ChatGPT)时,它们实际上只是从训练集中的数百万个示例中创建新模式。结果是从各种来源提取的剪切和粘贴合成,当人类这样做时也被称为剽窃。当然,人类也是通过模仿来学习的,但在某些情况下,这种对AI的“借鉴”和“借鉴”太明显了,连一个小学老师都气得不能教学生了。这种人工智能生成的内容包含大量或多或少逐字呈现的文本。然而,有时掺假或合成的数量足够多,即使是大学教授团队也可能难以检测来源。无论哪种方式,缺少的是唯一性。尽管这些机器闪闪发光,但它们无法生产出任何真正新颖的东西。2.版权:取代人类的时间,诉讼的日子虽然剽窃在很大程度上是学校的问题,但版权法适用于市场。当一个人从另一个人的工作中被挤出时,他们可能会被带到法庭,并被处以数百万美元的罚款。但是人工智能呢?同样的规则适用于他们吗?版权法是一个复杂的主题,生成人工智能的法律地位问题需要数年时间才能解决。但有一件事不难预测:当人工智能足够优秀,可以替代员工开展工作时,被替代的人肯定会利用“在家空闲时间”的时间提起诉讼。3.人类作为模型的无偿劳动剽窃和版权并不是生成人工智能引发的唯一法律问题。律师们已经在制定新的诉讼道德问题。例如,是否应该允许制作绘图程序的公司收集有关人类用户绘图行为的数据并将该数据用于人工智能训练?基于此,自己所用的创造性劳动是否应该得到补偿?当前AI的大部分成功源于对数据的访问。那么,当生成数据的群众想要采取行动时,是否有可能呢?什么是公平?什么是合法的?4.信息积累,而不是知识创造人工智能特别擅长模仿人类需要多年才能发展起来的那种智能。当一位学者能够介绍一位默默无闻的17世纪艺术家,或者用几乎被遗忘的文艺复兴时期的音调结构创作新音乐时,我们有充分的理由说出令人惊叹的事情。我们知道,发展这种知识深度需要多年的学习。当AI仅经过几个月的训练就可以完成这些相同的事情时,结果可能非常精确和正确,但缺少一些东西。人工智能似乎只是模仿了人类创造力有趣和不可预测的一面,但“相似”,并不能真正做到。与此同时,不可预测性是推动创造性创新的动力。和时尚娱乐圈一样,不仅痴迷于变化,更被“变化”所定义。事实上,人工智能和人类智能都有各自擅长的领域。例如:如果一台机器经过训练可以在装满数十亿条记录的数字磁带中找到正确的旧收据,它也可以了解以英国妇女为生的人)无所不知。甚至可以想象,这台机器是为了破译玛雅象形文字的含义而建造的。5.智能停滞不前,难以成长说到智能,人工智能本质上是机械的、基于规则的。一旦AI通过一组训练数据,它就会创建一个不会真正改变的模型。一些工程师和数据科学家设想随着时间的推移逐渐重新训练人工智能模型,以便机器能够学会适应。但是,在大多数情况下,这个想法是创建一组复杂的神经元,以固定形式编码一些知识。这种“恒常”有它的用武之地,可能适用于某些行业。但这也是它的弱点。危险在于它的认知将永远停留在其训练数据的“时代周期”中。当我们变得如此依赖生成式AI以至于我们无法再为训练模型生产新材料时会发生什么?6.隐私和安全的大门太松了AI训练数据需要来自某个地方,而且我们并不总是那么确定神经网络中会出现什么。如果AI从其训练数据中泄露个人信息怎么办?更糟糕的是,要锁定人工智能要困难得多,因为它们被设计得非常灵活。关系数据库可以限制对包含个人信息的特定表的访问。然而,人工智能可以通过几十种不同的方式进行查询。攻击者将很快学会如何以正确的方式提出正确的问题以获得他们想要的敏感数据。例如,假设攻击者的目标是资产的位置,AI也可用于询问拐角处的经纬度。聪明的攻击者可能会询问几周后太阳在该位置升起的确切时间。有责任心的人工智能会尽最大努力给出答案。如何教会人工智能保护隐私数据也是一个难题。7.未知的偏差之地自大型机时代以来,技术界就创造了“垃圾输入,垃圾输出”(GIGO)的概念,并将公众带到了计算问题的核心。AI的许多问题都来自不良的训练数据。如果数据集不准确或有偏差,结果也会反映出来。生成式AI的核心硬件在理论上是由逻辑驱动的,但构建和训练机器的人却不是。预审意见和党派偏见已被证明被引入人工智能模型中。也许有人使用有偏见的数据来创建模型。也许他们添加了某种训练语料库来防止模型回答某些热门问题。也许他们输入了一个硬连线的答案,然后就变得检测不到了。人工智能确实是一个很好的工具,但这也意味着别有用心的人有一千种方法可以让AI成为有害信仰的完美载体。这是国外房屋贷款的一个例子。在这种情况下,用于评估潜在租户的AI系统依赖于法庭记录和其他数据集,其中许多数据本身就存在偏见,反映了系统性的种族主义、性别歧视和能力歧视,并且是出了名的错误。显然有能力支付房租的人通常会被拒绝提供房屋贷款,因为租户筛选算法认为他们不符合条件或不值得。这也是我们经常从业务员那里听到的答案:大数据/系统/AI建议如此。ChatGPT被冒犯后的表现8.机器的愚蠢,来的突然人工智能模型犯的错误很容易被原谅,因为他们做了很多其他的事情。只是很多错误很难预测,因为人工智能的思维方式与人类不同。例如,许多文本转图像功能的用户发现AI会犯一些简单的错误,比如数数。人类在小学早期学习基本算术,然后我们以各种方式使用这项技能。让一个10岁的孩子画一只章鱼,这个孩子几乎肯定会确定它有八条腿。当涉及到数学的抽象和上下文使用时,当前版本的人工智能往往会陷入困境。如果模型构建者注意这个失误,这可以很容易地改变,但也有其他未知的错误。机器智能不同于人类智能,这意味着机器的愚蠢也会有所不同。9、机器也会说谎,而且很容易骗人。有时候,我们人类往往在不知不觉中掉进了AI的坑里。在知识的盲区,我们倾向于相信人工智能。如果AI告诉我们亨利八世是杀死他妻子的国王,我们不会质疑,因为我们自己并不知道这段历史。我们常常假设人工智能是正确的,就像我们作为大会的听众,当我们看到魅力四射的主持人挥手时,我们也会默认选择相信“台上的人比我知道的多”。对于生成式AI的用户来说,最棘手的问题是知道AI何时出错。“机器不会说谎”通常是一句口头禅,但事实并非如此。机器不能像人类一样说谎,但它们犯下的错误可能意味着更多的危险。他们可以在任何人都不知道发生了什么的情况下写出一段段完全准确的数据,然后转为猜测,甚至转为谎言。“真假各半”的艺术,AI也会。但不同的是,二手车商或扑克玩家往往知道自己在撒谎,而且大多数人都能分辨出自己在撒谎,而AI则不能。10.无限滥用:对经济模型的担忧数字内容的无限可复制性削弱了许多围绕稀缺性建立的经济模型。生成式人工智能将进一步破坏这些模式。生成式人工智能会让一些作家和艺术家失业,它还会颠覆我们赖以生存的许多经济规则。当广告和内容可以无休止地重新组合和重新生成时,广告支持的内容是否有效?互联网的免费部分会不会变成一个“机器人点击页面广告”的世界,一切都由人工智能生成,可以无限复制?“繁荣富足”如此容易实现,却可以扰乱经济的每一个角落。如果不可替代的代币可以永远复制,人们会继续为它们买单吗?如果做艺术这么容易,它还会受到尊重吗?还会特别吗?如果不是特别的,有人会介意吗?当一切都被视为理所当然时,一切都会失去价值吗?这就是莎士比亚所说的“暴富的弹弓和箭”的意思吗?让我们不要试图自己回答,让生成式AI自己来做。它可能会返回一个有趣的、独特的、奇怪的答案,而且很可能会牢牢抓住“模糊”的边界——一个游走在是非边缘、不伦不类的略带神秘的答案。原文链接:https://www.infoworld.com/article/3687211/10-reasons-to-worry-about-generative-ai.html
