在过去的一年里,生成式AI(GenerativeAI)可谓强势出圈。从文本到图像再到视频甚至代码,几乎所有您能想到的生成式AI都可以为您完成。这不,2023年世界经济年度峰会,也就是达沃斯论坛,也对2022年生成AI取得的辉煌成就点名表扬。本文将生成AI称为“社会和企业需要认真应对的破局者”,这足以看出它的重要性。此外,论坛还邀请了OpenAI的CEOSamAltman出席并发表了“AITowardstheNextEra”的闭幕主题演讲。同时,就人工智能未来发展对经济社会的助力等一系列话题进行了讨论。此次采访奥特曼的是美国知名企业、领英联合创始人雷德·霍夫曼(ReidHoffman)。我们截取了一段对话和采访的短片,完整采访的链接也贴在下面。ReidHoffman:所以我认为很多人感兴趣的一件事是API将创建非常大的模型,那么真正的商业机会是什么?前瞻的方式有哪些?鉴于API将可供多个玩家使用,您如何创建独特的业务?山姆奥特曼:是的。所以我认为现在我们已经进入了一个无限可能的领域,在这里你可以做很多过去用模型复杂的事情。但我的猜测是,随着我们在未来几年内看到的语言模型的质量,搜索产品将首次对谷歌构成严峻挑战。包括我们的ChatGPT,以前是被人嘲笑的,但是现在它的能力是任何公司都不能忽视的。Altman将人工智能视为所有技术发展的基础平台,从大型语言模型的巨大飞跃到在图像和语言之间切换的多模态应用,再到显着扩展科学家能力的应用,所有行业都将从中看到许多进步。视频链接:https://youtu.be/WHoWGNQRXb0采访全文链接:https://greylock.com/greymatter/sam-altman-ai-for-the-next-era/上一篇也总结了AI的发展历程年的发展历程。看最后一组图,从2014年到2022年生成AI在画质上的飞跃。这些图片是由AI模型生成的,现实中并不存在。生成式AI的超能力生成式预训练转换器(GPT)是一种大型语言模型(LLM),它使用深度学习来生成类似人类的文本。尽管当前市场低迷,科技行业裁员,但生成人工智能公司继续吸引投资者的关注。例如,StabilityAI和Jasper最近分别融资了1.01亿美元和1.25亿美元,红杉资本等投资者认为生成式AI领域可以产生数万亿美元的经济价值。随着StableDiffusion和ChatGPT等新模型的发布,生成式AI已成为技术专家、投资者、政策制定者和整个社会的热门话题。生成式AI并不是一个新概念,生成式AI背后的机器学习技术在过去十年中不断发展。生成式AI训练模型通过从大型数据集中学习并使用该知识生成类似于训练数据集中示例的新数据来工作。这通常是使用一种称为生成模型的机器学习算法来完成的。有许多不同类型的生成模型,每一种都使用不同的方法来生成新数据。一些常见类型的生成模型包括生成对抗网络(GAN)、VAE和自回归模型。例如,在人脸图像数据集上训练的生成模型可能会学习人脸的一般结构和外观,然后使用这些知识生成新的、以前未见过但看起来可信的人脸。生成模型用于各种应用程序,包括图像生成、自然语言处理和音乐生成。它们对于手动生成新数据非常困难的任务特别有用,例如为产品创建新设计或生成逼真的语音。OpenAI的最新版本ChatGPT一炮而红,仅五天就吸引了100万用户,被描述为在更广泛的任务领域取得了突破。当前正在讨论的用例包括搜索引擎的新架构、解释复杂算法、创建个性化治疗机器人、帮助从头构建应用程序、解释科学概念等等。Midjourney、DALL-E和StableDiffusion等文本到图像程序有可能改变艺术、动画、游戏、电影、建筑等的呈现方式。基于人机协作的新时代,乐观主义者声称生成人工智能将有助于艺术家和设计师的创作过程,因为生成人工智能系统将增强现有任务,加速构思,并从根本上加快创作阶段。除了创意空间,生成式AI模型在计算机工程等复杂科学领域具有变革能力。例如,微软拥有的GitHubCopilot基于OpenAI的Codex模型,可以建议代码并协助开发人员自动化他们的编程任务。该系统被认为可以自动完成多达40%的开发人员代码,大大增加了工作流程。潜在和未知的风险虽然生成式人工智能让人们对它将带来的创造力感到兴奋,但也有人担心这些模型对社会的影响。数字艺术家GregRutkowski担心互联网上会充斥着与他自己的作品无法区分的艺术品,他可以简单地告诉系统以他独特的风格复制它。艺术教授CarsonGrubaugh也有同样的担忧,他预测许多创意工作者,包括从事娱乐、视频游戏、广告和出版业的商业艺术家,可能会因为生成人工智能模型而失业。除了对任务和工作产生深远影响外,生成式AI模型和相关的外部性在AI治理社区引起了警觉。大型语言模型的问题之一是它们能够生成虚假和误导性内容。Meta的卡拉狄加——一个在4800万篇科学文章上训练的模型,它声称可以总结学术论文、解决数学问题和编写科学代码——在上线后不到三天就被撤下了,因为科学界认为它太不合适了。学生误解并产生了错误的数据和知识。此外,通过图灵测试的机器人表现出与人类相似或无法区分的智能行为的能力,这种能力可能被滥用以产生跨平台和生态系统的虚假信息。大型模型继续在书籍、文章和网站中代表的大量数据集上进行训练,这些数据集可能以难以完全过滤的方式存在偏差。尽管在ChatGPT的案例中,通过使用人工反馈强化学习(RLHF)大大减少了有害和不真实的输出,但OpenAI承认他们的模型仍然会产生恶意和有偏见的输出。
