当前位置: 首页 > 科技赋能

来自天空之眼的新知识-只有了解过去,才能了解未来,人工智能产业再次面临发展机遇期

时间:2024-05-19 16:21:38 科技赋能

前言:随着我国数字经济的深入发展,工业数字化进程不断加速,大数据在工业决策中的比重不断提升越来越高。

天眼查数据研究院特推出“天眼新知”栏目,依托天眼查大数据梳理产业结构和发展脉络,解读行业最新动态和投融资动态,为决策提供参考各方。

本文为天眼新知·产业分析系列的第三十四篇。

人工智能起源于一篇绕口令的科学论文《神经活动中内在思想的逻辑演算》,起源于著名的“图灵测试”,起源于20世纪50年代具有长远眼光的科技圣人们的一次“偶然”讨论。

人工智能是从深入探索人类自身的认识和模拟人类意识和思维的信息过程开始的。

如今,人工智能已不再是科幻电影中遥不可及的概念。

它已经成为众所周知的“现实”,并逐渐显示出其在减轻人类身心负担方面的优势,比如极端天气预报等方面。

出现。

随着深度学习、大模型等关键技术的深入发展,并以Chat-GPT的爆发为新起点,人工智能将快速进入下一个“未知”阶段。

1、人工智能:工具属性与思维能力深度融合。

人工智能的标准定义请参考《人工智能标准化白皮书()》。

人工智能是利用数字计算机或数字计算机控制的机器来模拟、延伸和扩展人的智能,感知环境、获取知识和利用知识以获得最佳结果的理论、方法、技术和应用系统。

在大多数人看来,人工智能是一个非常强大的助手和工具,可以自动化工作流程,提高工作效率,比如执行与人类智能相关的智能行为,如判断、推理、证明、识别、感知等。

、理解、沟通、设计、思考、规划、学习和解决问题等思维活动。

但相比其工具属性和能力属性,人工智能更重要的是作为一种思维,用来描述机器模仿与人类相关的“认知”功能以及其他人类思维,例如“学习”和“学习”。

解决这个问题”。

人工智能产业在20世纪50年代提出后,受限于当时的技术能力,大多局限于理论知识的讨论。

然而,它真正开始爆发是在2006年AlexNet模型的出现。

1.人工智能1.0时代(年-年) 人工智能的概念是在2008年提出的,AI行业的第一次爆发起源于从2008年开始,2016年AlexNet模型的出现,开启了CNN在图像识别方面的应用。

2016年机器识别图像的准确率首次超越人类(错误率低于4%),开启了计算机视觉技术在各行各业的应用,推动了人工智能的创新周期1.0时代,AI+开始赋能各行各业,驱动效率提升。

但人工智能1.0时代面临模型碎片化、AI泛化能力不足等问题。

2、人工智能2.0时代(2020年至今) 2019年,Google Brain团队提出了Transformer架构,为大模型领域的主流算法奠定了基础。

2017年以来,大尺寸车型迅速流行。

2019年,谷歌团队的模型参数首次突破1亿。

到2020年,模型参数达到1亿个,模型参数呈指数级增长。

“预训练+微调”的大模型有效解决了1.0时代AI泛化能力不足的问题。

新一代人工智能技术有望开启新一轮技术创新周期。

天眼查数据显示,截至目前,人工智能相关企业近4000家,其中今年一季度新注册超过17万家,较去年同期增长6.8%;从地域分布来看,广东以超过39.9万家企业位居地区首位;江苏和北京分列第二和第三位,分别有超过22.4万家和超过21.8万家企业;从成立时间来看,53.6%的相关企业成立时间在1-5年内。

一年内成立的关联公司占比27.7%;据天眼查不完全统计,今年1月以来人工智能行业融资事件总金额已超亿元。

二、数据、算法、算力:人工智能的“三驾马车” 1、数据:“巧妇难为无米之炊”。

人工智能的快速发展推动了数据规模的不断增加。

据IDC预计,全球每年的数据规模将达到ZB,其中80%-90%是非结构化数据。

数据服务已进入深度定制阶段。

百度、阿里巴巴、京东等公司根据不同场景和需求推出数据定制服务;企业所需的数据集已从一般的简单场景过渡到个性化的复杂场景。

例如,语音识别数据集从普通话发展到更小的语言、方言等场景,智能对话数据集从简答问答、控制等场景发展到应用场景和业务问答等。

各方都在积极探索建立高质量的知识集,推动知识驱动的未来人工智能应用的发展。

知识集包括语音、图像、文本等传统数据以及定义、规则、逻辑关系等,是知识的数字化呈现。

业内著名的知识集有Wordnet、Hownet等。

例如阿里巴巴与香港理工大学基于服装设计知识开发了FashionAI知识集,加速了AI在服装设计行业的应用。

2、算法(模型、软件):“困难”总是比方法多。

中国信息通信研究院《人工智能白皮书(年)》表示,超大规模预训练模型不断推动技术升级,不断向大规模、多模态方向发展。

自2018年OpenAI推出GPT-3以来,谷歌、华为、中科院致远研究院、阿里巴巴等公司和研究机构也相继推出超大规模预训练模型,包括Switch Transformer、DALL· EMT-NLG、盘古、无道2.0、紫动太初、M6等。

目前预训练的模型参数数量和训练数据规模正以每年100%的速度增长。

增加模型、增加训练数据仍然是短期的演进方向;跨模态预训练大型模型逐渐变得越来越普遍,现在可以处理文本和图像。

、语音三模态数据,未来会出现可以使用更多类型数据的预训练模型。

轻量级深度学习技术显着提升计算效率。

复杂的深度学习模型需要大量的存储空间和计算资源,在终端、边缘等资源有限的情况下难以应用。

轻量级深度学习成为解决这一问题的重要技术。

它具有占用内存少、计算负荷低等优点。

该技术包括设计更加紧凑高效的神经网络结构、“裁剪”大型模型的部分模型结构以及修改网络参数等。

量化从而减少计算量等。

例如,紧凑模型的典型代表包括Google提出的MobileNet和Megvii提出的ShufleNet。

百度推出的轻量级PaddleOCR模型大小已缩减至2.8Mb。

它在 GitHub 上开源后受到欢迎。

“生成式人工智能”技术不断成熟。

,今后听、说、读、写等能力都会有机结合起来。

目前,“生成式人工智能”技术广泛应用于智能写作、语音导航、代码生成、新闻播报、音频朗读、图像修复等领域,通过机器自动合成各种内容,推动互联网数字内容的生产。

文字、视频、图像、语音等变化。

听、说、读、写等能力的有机结合已成为未来的发展趋势。

比如中央电视台、新华社、光明网等都推出了数字真人主播。

据天眼查知识产权不完全统计,2020年1月以来,已有10余件人工智能相关专利申请,其中发明专利占比70%以上。

3、计算能力(硬件):日行千里,事半功倍。

人工智能算力在需求驱动下不断突破,用于训练和推理的芯片发展仍在加速。

一方面,在模型训练阶段,根据Open AI数据,模型计算量的增长速度远远超过人工智能硬件算力的增长速度,差距达万倍。

另一方面,由于推理的普遍性,推理中对计算能力的需求持续增长。

与此同时,新的算力架构也在不断探索,类脑芯片、内存计算、量子计算等备受关注。

训练芯片创新加速,推理芯片向特殊定制发展。

基于GPU的训练芯片数量不断增加,面向GPU创新的企业开始发力。

涌现了一批专注GPU赛道的初创公司,如摩尔线程、天数智芯、必人科技等。

基于ASIC等架构的云训练芯片能力显着提升。

寒武纪的思源、元科技的“西思2.0”以及百度的昆仑2都比上一代产品拥有3-4倍以上的计算能力。

专门定制的端侧推理芯片全面开花,手机应用智能芯片成为亮点。

今年1月,联发科推出了天玑(Dimensity),这是一款可以在边缘处理5G、AI和图像数据的高端手机芯片。

8 月,谷歌推出了首款智能手机芯片 Tensor,专门用于其 Pixel 系列手机。

类脑芯片、内存计算、量子计算等仍是重点探索方向。

类脑芯片、内存计算、量子计算等技术理论上可以实现高算力、低功耗的优势。

虽然取得了一些进展,但总体而言,目前技术成熟度还较低。

据天眼查投融资数据不完全统计,GPU相关融资事件共发生98起,融资金额超亿元;其中,年度融资事件共发生3起,融资金额超4亿元。

4、数据标注:人工智能背后“人工智能”的力量。

人工智能实际上部分取代了人类的认知功能。

人工智能算法是数据驱动的算法。

也就是说,想要实现人工智能,首先需要教会计算机人类理解和判断事物的能力,让计算机学会这种识别能力。

类比机器学习,我们必须教它识别猫并直接给它一张猫的图片。

它不知道它是什么。

我们首先要有一张猫的图片,上面标注着“猫”这个词,然后机器就会学习图片中的大量特征。

这时候,如果我们给机器任何一张猫的图片,它就能识别出这是一只猫。

因此,人工智能目前需要对大量数据进行标注,即对原始信息进行数据标注。

数据标注是大多数人工智能算法有效运行的关键环节。

数据标注就是对需要机器识别、区分的数据进行标注,然后让计算机不断学习这些数据的特征,最终实现计算机能够独立识别。

这种工作量极大、繁琐、耗时的人工数据标注过程,已经成为AI经济系统的重要组成部分。

据天眼查知识产权不完全统计,自2020年1月以来,已有数据标注相关专利申请34件,全部为发明专利。

三、应用领域:从知识学习到交通,改变你我的生活 1、大模型 3月14日,Open AI正式发布多模态大模型GPT-4,迭代速度极快。

创始人 Sam Altman 表示,GPT-4 是迄今为止最强大、最一致的大规模多模态模型,能够接受图像和文本输入,并在各种专业和学术基准上表现出人类水平的表现。

人工智能的发展已进入认知智能领域。

文本智能、图像智能、音频智能、视频智能以及多模态认知智能将逐渐诞生。

未来,为了应对复杂多变的应用场景,多模态智能化将成为必然的发展方向。

2、自动驾驶 自动驾驶技术是一项涉及多个领域的复杂技术,人工智能技术是其中的重要组成部分。

在自动驾驶中,人工智能主要负责实现自主决策和智能感知。

其中,自主决策涉及在各种驾驶情况下根据各种因素做出最佳决策。

这些因素包括道路状况、交通状况、天气状况、行人和其他车辆的行为以及各种其他因素。

智能感知主要负责实现对周围环境的感知,包括车辆、行人的位置、速度、方向等信息的获取和分析。

这些信息将为自动驾驶汽车做出最佳决策和行动提供支持。

3.生命科学领域的人工智能不仅在工程领域取得了巨大的成就,而且在生命科学领域也有着良好的记录,例如:Alphafold。

2016年,DeepMind和欧洲生物信息学研究所的一个团队宣布生物学领域取得了重大飞跃。

他们使用人工智能(AI)系统AlphaFold预测了来自10,000多个物种的2.14亿个蛋白质结构,几乎涵盖了地球上所有已知的蛋白质。

这一突破将加速新药研发,带来基础科学新革命。

预测蛋白质形状的能力对科学家来说非常有用,因为它对于了解蛋白质在体内的作用以及诊断和治疗被认为是由错误折叠蛋白质引起的疾病(例如阿尔茨海默病、帕金森病、亨廷顿病和囊性纤维化)至关重要。

四、前景预测 1、政策层面:全力支持人工智能作为引领未来的新兴战略技术、推动新一轮科技革命和产业变革的重要力量。

近年来,我国人工智能产业得到国家的高度重视和重点支持。

国家推出多项政策保障我国人工智能产业长远发展。

从数据要素来看,十四大提出了成立国家数据局、重组科技部等有力举措。

国家数据局的成立有望加速数据要素市场化。

从自主创新的角度来看,重组科技部、完善新的国家体制,有利于推动我国科技自主创新的发展。

2、应用层面:前景广阔。

AIGC领域目前呈现出内容类型不断丰富、内容质量不断提升、技术通用性和产业化水平不断提高等趋势。

这使得AIGC在消费互联网领域日益成为主流,并已崭露头角。

写作助手、AI绘画、对话机器人、数字人等热销应用支撑媒体、电商、娱乐、影视等领域的内容需求。

目前,AIGC也在将应用拓展到工业互联网和社会价值领域。

天眼查研究院认为,未来,关于人工智能是否真正取代人类的讨论还将继续。

人工智能是一场关于知识学习的革命。

机器学习、深度学习和大模型等令人敬畏的概念只是机器理解世界的范例。

与其担心被机器取代,不如与“机器”同行,学习它,掌握它,用好它,成为我的工具。