ChatGPT等生成式AI模型令人震惊,以至于现在有人声称AI不仅可以与人类平起平坐,而且往往更聪明。他们以令人眼花缭乱的风格抛出精彩的艺术品。他们可以写出充满细节、想法和知识的文章。由此产生的人工制品是如此多样,看起来如此独特,以至于很难相信它们来自机器。我们才刚刚开始发现生成式人工智能的所有功能。一些观察家认为,这些新型人工智能终于跨过了图灵测试的门槛。其他人则认为,门槛并没有被轻易跨越,而是被夸大了。不过,这部杰作实在是太厉害了,以至于一群人确实是在失业的边缘。然而,一旦人们习惯了,生成式人工智能固有的光环就会褪去。一群观察员提出正确的问题,让这些智能机器说出愚蠢或错误的话。这已成为一时的时尚。他们中的一些人使用了小学美术课上流行的老式逻辑炸弹,比如要一张傍晚的太阳或暴风雪中的北极熊的照片。其他人提出了奇怪的要求,展示了AI情境意识(也称为常识)的局限性。有兴趣的可以计算生成AI失败的规律。本文介绍了生成式人工智能的十个缺点或陷阱。干净的床单可能读起来有点酸葡萄,因为如果允许机器接管,他将失去工作。你可以说我是一个支持人类团队的小家伙,只是希望人类在与机器的战斗中表现出英勇。尽管如此,我们不应该有点担心吗?1.抄袭当像DALL-E和ChatGPT这样的生成式AI模型开始出现时,它们实际上只是从训练集中的数百万个示例中制作新的模式,结果是对各种来源的剪辑。剪切和粘贴的组合。如果人类这样做,就称为剽窃。当然,人类也是通过模仿来学习的。但是,在某些情况下,借用是如此明显,以至于会让小学老师不高兴。这种人工智能生成的内容由或多或少逐字呈现的文本块组成。然而,有时涉及的混合或合成足够多,以至于即使是一群大学教授也难以发现其来源。无论如何,都不可能看出其中的独特性。尽管这些机器闪闪发光,但它们无法产生真正的新作品。2.版权尽管抄袭在很大程度上是学校关注的问题,但版权法也适用于市场。当一个人剽窃另一个人的作品时,他们可能会被送上法庭,并可能被罚款数百万美元。但是人工智能呢?同样的规则适用于他们吗?版权法是一个复杂的话题,生成人工智能的法律地位需要数年时间才能确定。但请记住这一点:当AI开始制作看起来好到足以让人类处于失业边缘的工作时,他们中的一些人肯定会利用他们新的业余时间来起诉。3.无偿劳动剽窃和版权并不是生成式人工智能引发的唯一法律问题。律师们已经在幻想新的诉讼道德问题。例如,制作绘画程序的公司是否应该收集有关人类用户绘画行为的数据并使用该数据来训练人工智能?人类是否应该因使用这种创造性劳动而得到补偿?当前这一代人工智能的成功很大程度上归功于数据的获取。那么当生成数据的人想要分一杯羹时会发生什么呢?哪些公平?什么可以被认为是合法的?4.信息不是知识人工智能特别擅长模仿人类需要多年才能发展起来的那种智能。当一位人类学家介绍一位默默无闻的17世纪艺术家,或使用几乎被遗忘的文艺复兴时期的音调结构创作新音乐时,我们有充分的理由印象深刻。我们知道需要多年的研究才能发展这种知识深度。当人工智能在几个月后被训练做同样的事情时,结果可能会非常精确和正确,但会遗漏一些关键要素。如果一台机器经过训练可以在装满数十亿条记录的数字鞋盒中找到正确的旧收据,那么它也可以学习关于像AphraBehn这样的诗人的一切知识。您甚至可能认为机器是为解码玛雅象形文字的含义而建造的。AI可能看起来模仿了人类创造力中有趣和不可预测的一面,但它们并不能真正做到这一点。与此同时,不可预测性是推动创造性创新的动力。像时尚这样的行业不仅痴迷于变化,而且由变化来定义。的确,人工智能有它的一席之地,但旧的来之不易的人类智能也是如此。5.智能停滞不前说到智能,人工智能本质上是机械的、基于规则的。一旦AI处理了一组训练数据,它就会创建一个不会真正改变的模型。一些工程师和数据科学家设想随着时间的推移逐渐重新训练AI模型,以便机器学会适应。但是,在大多数情况下,这个想法是创建一组复杂的神经元,以固定形式编码一些知识。恒常性有它的用武之地,可能适用于某些行业。人工智能的危险在于它将永远停留在其训练数据的时代精神中。当我们人类变得如此依赖生成式人工智能以至于我们无法再为训练模型生成新材料时会发生什么?6.隐私和安全人工智能的训练数据需要来自某个地方,我们并不总是那么确定神经网络中会出现什么。如果AI从其训练数据中泄露个人信息怎么办?更糟糕的是,要锁定人工智能要困难得多,因为它们被设计得非常灵活。关系数据库可以限制对包含个人信息的特定表的访问。但是人工智能可以用几十种不同的方式进行查询。攻击者将很快学会如何以正确的方式提出正确的问题以获得他们想要的敏感数据。例如,假设资产的经纬度被锁定。聪明的攻击者可能会询问太阳在几周内升起的确切时刻的位置。一个尽职尽责的AI会尝试回答。教AI保护私人数据还不是我们所能掌握的。7.未检测到的偏差如果您知道最早的大型机程序员创造了首字母缩略词GIGO,即“垃圾输入,垃圾输出”,您就会发现从那时起他们就已经触及了计算问题的核心。AI的许多问题都来自不良的训练数据。如果数据集不准确或有偏见,结果必然会反映出这一点。生成式AI的核心硬件可能像Spock一样以逻辑为导向,但构建和训练机器的人却不是。偏见和偏袒已被证明可以进入AI模型。也许有人使用有偏见的数据来创建模型。也许他们添加了重写以防止模型回答特定的热门问题。也许他们输入了硬编码的答案并且变得难以检测。人类已经找到了许多方法来确保人工智能成为我们有害信念的绝佳工具。8.机器愚蠢我们可以很容易地原谅人工智能模型的错误,因为它们在许多其他方面做得很好。只是很多错误很难预测,因为人工智能的思维方式与人类不同。例如,许多文本转图像功能的用户发现AI会做错相当简单的事情,比如算术。人类在小学学习基本算术,然后我们以各种方式使用这项技能。让一个10岁的孩子画章鱼的草图,孩子几乎可以肯定它有八条腿。当前版本的人工智能在涉及数学的抽象和上下文使用时往往会陷入困境。如果模型构建者注意这个失误,这很容易改变,但还会有其他失误。机器智能不等同于人类智能,也就是说机器的愚蠢也不一样。9.人类容易上当受骗有时候,我们人类会不自觉地填补人工智能的空白。我们填写缺失的信息或插入答案。如果AI告诉我们亨利八世是一个弑妻的国王,我们不会质疑,因为我们自己不了解历史。我们只是提前假设AI是正确的,就像我们在迷人的明星面前欢呼一样。如果一个陈述听起来很自信,人类的头脑通常愿意接受它是真实和正确的。对于生成式AI的用户来说,最棘手的问题是知道AI何时出错。机器不能像人类一样撒谎,但这使它们更加危险。他们可以拿出几段完全准确的数据,然后转而进行猜测,甚至是彻头彻尾的诽谤,而没有人意识到这一点。二手车经销商或扑克玩家通常知道他们何时作弊,并且大多数人都有证据表明他们的诽谤行为。但是人工智能没有。10.无限丰富数字内容是可以无限复制的,这已经使许多围绕稀缺性建立的经济模型变得紧张。生成式人工智能将进一步破坏这些模式。生成式人工智能会让一些作家和艺术家失业;它还颠覆了我们赖以生存的许多经济规则。当广告和内容都可以无休止地重新组合和再生时,广告支持的内容还能有效吗?互联网的免费部分是否会沦为机器人点击网页广告的世界,所有这些都由生成式AI精心制作和无限复制?这种容易的丰富可能会扰乱经济的每个角落。如果这些代币可以永远复制,人们还会继续为不可复制的代币买单吗?如果做艺术这么容易,它还会受到尊重吗?还会特别吗?如果不是特别的,会有人关心吗?当一切都被视为理所当然时,是否存在价值损失?这就是莎士比亚所说的“无耻命运的弹弓和箭”的意思吗?我们不要试图自己回答这个问题。让我们转向生成人工智能寻求答案。答案将是有趣的、古怪的,并最终神秘地被困在地下世界的某个地方,介于是非之间。资料来源:www.cio.com
