当前位置: 首页 > 科技观察

ChatGPT风头正劲,但生成式AI有十大缺陷值得担忧

时间:2023-03-13 20:21:56 科技观察

经过科技人员数十年的不懈努力,现实世界中的人工智能终于走到了临界点。ChatGPT、DALL-E等AI模型的惊人表现,让很多人感受到越来越智能的AI系统正在赶超人类。生成式AI的功能如此多样且独特,以至于很难相信它们来自机器。但一旦惊奇感消退,生成式人工智能的明星效应也会消退。人工智能在一些应用中也表现出其场景感知或常识的局限性,许多人都在关注或担心当今生成式人工智能的不足或缺陷。以下是人们担心的生成式人工智能的10个缺点或陷阱。1.抄袭内容当研究人员创建生成式AI模型(如DALL-E和ChatGPT)时,这些实际上只是从训练集中的数百万个示例中创建的新模式。其结果是对从各种来源提取的数据进行剪切和粘贴合成,这种做法被人类称为“剽窃”。当然,人类也会通过模仿来学习,但在某些情况下,这种模仿是不可取的,甚至是非法的。然而,生成式AI生成的内容由大量文字构成,部分内容或多或少存在抄袭。然而,有时,由于涉及足够多的混合或合成,即使是大学教授也可能难以检测出真正的来源。无论如何,它生成的内容缺少的是唯一性。尽管它们看起来很强大,但它们并没有生产出真正创新的产品。2.版权问题虽然剽窃是学校试图避免的问题,但版权法适用于市场。当有人窃取他人的知识产权或工作时,他们可能会被起诉或被罚款数百万美元。但是人工智能系统呢?同样的规则适用于他们吗?版权是一个复杂的主题,生成人工智能的法律地位需要数年时间才能确定。但需要记住的是,当人工智能开始取代人类的某些工作时,就会有人根据版权法提起诉讼。3.免费获取人类劳动产生的人工智能所引发的法律问题不仅仅是抄袭和侵犯版权,一些律师已经就人工智能引发的道德问题发起诉讼。例如,制作绘图程序的公司是否会收集有关用户绘图行为的数据,然后将这些数据用于AI训练目的?人类是否应该因使用这种创造性劳动而得到补偿?数据访问。那么,那些生成数据并想从中获利的人会怎样呢?那么什么是公平的呢?什么是合法的?4.在不创造知识的情况下利用信息人工智能擅长模仿人类需要多年才能发展起来的那种智能。当一位人类学家介绍一位不知名的17世纪艺术家,或者一位艺术家用几乎被遗忘的文艺复兴时期的音调创作新音乐时,人们会钦佩他们渊博的知识和技巧,因为这需要多年的学习和实践。当一个人工智能只经过几个月的训练就可以做同样的事情时,结果可以非常精确和正确,但总感觉少了点什么。训练有素的人工智能系统机器可以通过获取大量信息来学习一些东西,甚至可以破译玛??雅象形文字。人工智能似乎模仿了人类创造力中有趣和不可预测的一面,但它们并不能真正做到这一点。同时,不可预测性是创造性创新的驱动力。像时尚这样的行业不仅痴迷于变化,而且由变化来定义。事实上,人工智能和人类都有自己擅长的领域。5.智能增长有限在智能方面,人工智能本质上是机械的和基于规则的。一旦AI系统通过一组数据进行训练,就会创建一个不会真正改变的模型。一些工程师和数据科学家设想随着时间的推移逐渐重新训练AI模型,以便AI能够学会适应。但是,在大多数情况下,这个想法是创建一组复杂的神经元,以固定形式编码特定知识。这可能适用于某些行业。人工智能的危险在于,它的智力增长将永远受到训练数据限制的阻碍。当人类变得如此依赖生成式AI,以至于他们无法再为训练模型提供新材料时,将会发生什么?6.隐私和安全性有待提高人工智能训练需要大量数据,人类并不总是那么确定神经网络的结果是什么。如果AI从训练数据中泄露了个人信息怎么办?更糟糕的是,控制人工智能要困难得多,因为它们被设计得非常灵活。关系数据库可以限制对包含个人信息的特定表的访问。但是,可以通过数十种不同的方式查询AI。网络攻击者将很快学会如何以正确的方式提出正确的问题,以获得他们想要的敏感数据。假设网络攻击者锁定了特定设施的纬度和经度,则可能会询问AI系统该位置的确切时间,而认真负责的AI系统可能能够回答该问题。因此,如何训练AI保护隐私数据也是一项艰巨的任务。7.产生偏见即使是早期的大型机程序员也了解计算机问题的核心,他们创造了“输入垃圾,输出垃圾”(GIGO)的概念。AI的许多问题都来自不良的训练数据。如果数据集不准确或有偏差,它将反映在其输出中。生成式人工智能的核心硬件是由逻辑驱动的,但构建和训练机器的人却不是。偏见和错误已被证明会影响AI模型。也许有人使用有偏见的数据来创建模型,也许他们只是覆盖了阻止AI回答的特定热点问题,也许他们输入了一些会使AI系统产生偏见的固定答案。8.AI犯错AI模型犯错误很容易被原谅,因为它们在很多其他事情上做得很好,只是很多错误很难预测,因为AI的思维方式与人类不同。例如,许多文本转图像功能的用户发现AI在相当简单的事情上犯了错误,比如数数。人类从小学开始学习基本算术,然后以各种方式使用这项技能。例如,让一个10岁的孩子画一只章鱼,他通常会确定它有8条腿。当前版本的AI模型在涉及数学抽象和上下文应用时往往会陷入困境。如果模型构建者注意这个错误,这很容易改变,但还会有其他错误。机器智能不同于人类智能,这意味着机器犯的错误也会不同。9.愚弄人类有时,人类往往会在没有意识到错误的情况下被人工智能系统愚弄。例如,如果人工智能告诉人类英国国王亨利八世杀死了他的妻子,他们通常会相信,因为他们也可能不了解历史。人们倾向于认为人工智能提供的答案是真实和正确的。对于生成式AI的用户来说,最棘手的问题是知道AI系统何时出错。人们认为机器不会像人类那样撒谎,这使它们更加危险。人工智能系统可以编写一些非常准确的数据,然后转向猜测,甚至是谎言,而人类通常不知道发生了什么。二手车经销商或扑克玩家往往知道他们何时在说谎,而且大多数人会说出他们在说谎的地方,但AI做不到这一点。10.无限可复制性数字内容的无限可复制性压倒了许多围绕稀缺性建立的人工智能模型。生成式人工智能将进一步破坏这些模式。生成式人工智能会让一些作家和艺术家失业,它会颠覆人们遵循的许多经济规则。当广告和内容可以不断重新混合和更新时,广告支持的内容是否仍然有效?互联网的免费部分是否会陷入“机器人点击网络广告”的世界,所有这些都由生成人工智能生成并且可以无限复制?无限丰富可能会扰乱数字经济。例如,如果不可替代的代币可以被复制,人们会继续为它们付费吗?如果艺术创作如此容易,还会受到尊重吗?它还会是独一无二的吗?当一切都被视为理所当然,一切都会失去价值吗?与其尝试自己回答这些问题,不如向生成式AI寻求有趣而奇怪的答案。