人工智能行业研究:奔赴人工智能的星辰大海

2023-08-29 18:40:04   来源:新浪VR

  (报告出品方/作者:国泰君安证券,李沐华)

  人工智能旨在利用计算机模拟和执行各领域的智能任务

  从日常生活中可以随处瞥见人工智能的影子

  人脸识别打卡是一种快速、高效的考勤方式,相比传统的打卡方式,具有以下优势:1、准确率高:人脸识别技术可以在不同光线、角度、表情等情况下,准确地识别员工的面部信息,避免了手工打卡时出现的误差和作弊行为。2、安全性强:人脸识别技术通过人脸特征识别,确保只有正式员工才能进行考勤,防止了非法人员的进入和作弊行为。3、便捷性高:人脸识别打卡无需员工携带打卡卡片或密码,只需要站在识别设备前进行识别即可,方便快捷。

  智能推送是一种机器学习方法,可以识别和预测各种用户的兴趣或偏好,从而有针对性地、及时地向用户主动推送所需信息,以满足不同用户的个性化需求。

  计算智能是人工智能的基础性功能,赋能产业领域较广

  计算智能,通常指基于清晰规则的数值运算,比如数值加减、微积分、矩阵分解等。计算智能得益于计算机存储与硬件的快速发展,已给互联网、金融和工业等多个领域带来产业价值。计算智能也面临显著困境。以金融场景为例,计算智能受限于指定的数据逻辑规则,虽计算智能可以高性能地计算股票的统计特征,但无法运用专家知识,也难以进行深度、动态和启发式的推理,对投资、博弈等业务贡献的价值有限。计算智能所需的高性能硬件和网络支持等,也给企业带来了巨大的成本压力。

  认知智能在前两者基础上,提升了对各类信息的处理能力

  认知智能需要具有对采集的信息进行处理、存储和转化的能力,在这一阶段需要运用计算智能、感知智能的数据清洗、图像识别能力。认知智能需要拥有对业务需求的理解及对分散数据、知识的治理能力。认知智能需要能够针对业务场景进行策略构建和决策,提升人与机器、人与人、人与业务的协同、共享和博弈等能力。

  算法是人工智能的灵魂所在

  众所周知,计算机最擅长处理的是数字,所以我们可以将现实问题抽象为数学问题,再让计算机帮我们解决。那么,其中的关键就是找到能够准确翻译该问题的数据公式,一般是某个函数关系 f(x)。这个函数就叫做“算法/模型”。既然我们知道算法本质就是函数,那么影响算法准确程度的因素是什么?答案就是函数的参数。而机器学习的本质就是它是一种可以通过反复带入数据从而自主调整参数的人工智能算法之一。机器学习不是某种具体的算法,而是很多算法的统称。机器学习下的算法纷繁复杂,从学习方法上来分,机器学习又可以分为传统机器学习(监督学习、无监督学习、半监督学习)、深度学习和强化学习等等。

  数据是人工智能发展的土壤

  数据是人工智能成长的能源。人工智能的自我调整与学习的过程,本质上是对大量数据进行分析并找出规律,如无人车需要大量的试车数据不断地测试算法,并在业务场景上形成自我改进的反馈系统。可见如果没有数据的场景不可能实现人工智能,数据就是人工智能的引爆点。数据是人工智能结果准确的可靠性保证。对于人工智能结果的可靠性,数据要素的丰富性和准确性是关键,只有数据要素充分、准确,才能提高人工智能结果的准确性。数据是人工智能应用的创新基础。在数据要素基础上,人工智能应用可以进行跨学科的整合,辅助解决大量的实际问题,如金融预测、物流运输、医疗诊断等,从而推动了各个领域的创新发展。

  人工智能发展已历经三次浪潮

  AIGC 是从早期的“决策型”AI发展演化而来

  AIGC( 生成式AI )起源于“决策型”AI,决策型AI发展过程中的技术积累为生成式AI的产生奠定基础。决策型AI其学习的知识局限于数据本身;生成式AI在总结归纳数据知识的基础上可生成数据中不存在的样本 。最新生成式AI技术如GAN、Diffusion等,催生多款AIGC产品如:OpenAI系列、DALL·E2(Diffusion)、Starry A.I(基于GAN)等。

  以ChatGPT为例,其也是基于NLP模型逐步进化而来

  GPT模型是一种自然语言处理(NLP)模型,使用多层变换器(Transformer)来预测下一个单词的概率分布,通过训练在大 型文本语料库上学习到的语言模式来生成自然语言文本 。从 GPT-1 到 GPT-3 智能化程度不断提升,ChatGPT 的到来也是 GPT-4 正式推出之前的序章。

  算力是人工智能的基础设施,算法是人工智能的灵魂

  算力提升有极强的经济效益

  算力的经济效益使其成为各国政策支持的重点。根据清华大学全球产业院与浪潮信息联合发布的《2021-2022全球计算力指数评估报告》,通过对全球15个重点国家的计算力指数与数字经济及GDP的回归分析,得到15个重点国家的计算力指数平均每提高1点,国家的数字经济和GDP将分别增长3.5‰和1.8‰。进一步研究发现,当一个国家计算力指数分别达到40分及60分以上时,计算力指数每提升1点,其对GDP增长的推动力将分别增加到1.5倍及3倍。智能算力提升具备重大经济效益,对算力基础设施发展的支持性政策成为各国政策的重点。

  AI 数据中心需求激增,AI 服务器快速放量

  大模型的出现和技术创新对AI数据中心的发展起到推动作用。大模型的出现带来了算力的增量需求。根据 OpenAI 发布的有关 GPT-3模型的文档,它包含 1750 亿个参数,需要进行数千万次的计算操作来完成一次推理任务。ChatGPT 的总算力消耗约为 3640PF-days,需要7~8个投资规模 30 亿、单体算力 500P 的数据中心才能支撑运行,这样的规模和复杂性需要高性能的计算设备和大规模的并行计算能力,带动了 AI 数据中心需求的增 长。新的处理器架构、高速网络、存储技术以及更高效的冷却和能源管理系统的出现,提升了数据中心的性能和效率,为 AI 数据中心的发展提供了技术支持。

  AIGC拉动AI算力需求,AI芯片将成为未来科技石油

  基于APU架构的MI300预计于年底开始应用于超级计算机。随着AI进入“大模型”时代,训练数据不断增长、算法复杂度不断提高,国内人工智能厂商对算力的需求陡升。AI芯片作为大模型及AI应用落地的算力基础,重要性日益凸显。广义的AI芯片指专门用于处理人工智能应用中大量计算任务的模块,即面向人工智能领域的芯片均被称为AI芯片。狭义的AI芯片即针对人工智能算法做了特殊加速设计的芯片。狭义的AI芯片与传统芯片(如CPU)相比,性能优势主要体现在专用性的侧重上。

  要解决人类指定的各类任务,先要让计算机模拟人类的学习机制

  人类跟计算机的能力维度各有优势,让计算机学习和模拟人类的解决问题的方法是各类算法的起点。人类会非常容易的辨别出垃圾邮件与猫狗,但是让计算机做却非常困难,因为这与发明计算机的最初任务有本质区别。比如对1亿数据进行混合四则运算或大小排序,这些任务让人类执行会非常低效,但计算机却可以快速完成。而人工智能要处理的任务与计算机最初的任务恰好相反。这就促使了让人们思考人类到底是怎么进行学习的。人类的学习机制:婴儿根本不知道猫狗到现在我们可以一眼分辨出猫狗,是一个经验学习过程:首先需要一定的样本资料,从小可能在电视中、现实中或图书中或家长教育中获得大量信息,然后大脑将接受的信息进行学习、归纳、整理、总结,最后形成我们的知识与经验。对于计算机,它的优势是计算能力非常强,可以处理海量数据。我们需要给它提供成千上万的资料数据(猫狗照片)让它进行学习,然后计算机再面对新样本时才能以较高的准确率进行分辨。

  单一的专家系统算法会遇到诸多瓶颈

  但在实践过程中,有些任务本身的规则很难定义。一个典型的例子就是图像识别。在图像识别领域中,一个最基础的问题就是分辨这个图像是什么。举例来说,告诉你一张图像不是猫就是狗,现在给你一张图片,让你分辨一 张图片到底是猫还是狗。人类可以轻松地分辨出左侧是猫右侧是狗,但是让你具体说出你是究竟根据什么来分辨出猫与狗的,突然发现这个问题很难回答。例如,猫跟狗都有五官与体毛,并有基本相同的姿势等等,计算机量化描述这些规则的话,难度和复杂度极大。

  无监督学习跟监督学习相比,主要有三个特点

  无监督学习是一种机器学习的训练方式,它本质上是一个统计手段,在没有标签的数据里可以发现潜在的一些结构的一种训练方式。下面通过跟监督学习的对比来理解无监督学习:监督学习是一种目的明确的训练方式,你知道得到的是什么;而无监督学习则是没有明确目的的训练方式,你无法提前知道结果是什么。监督学习需要给数据打标签;而无监督学习不需要给数据打标签。监督学习由于目标明确,所以可以衡量效果;而无监督学习几乎无法量化效果如何。

  深度学习的灵感来自大脑的结构和功能

  深度学习的概念源于人工神经网络的研究,但是并不完全等于传统神经网络,可以看做神经网络的升级版本。

  根据李开复在《人工智能》内容,以识别图片中的汉字为例来解释深度学习:

  假设深度学习要处理的信息是“水流”,而处理数据的深度学习网络是一个由管道和阀门组成的巨大水管网络。网络的入口是若干管道开口,网络的出口也是若干管道开口。这个水管网络有许多层,每一层由许多个可以控制水流流向与流量的调节阀。根据不同任务的需要,水管网络的层数、每层的调节阀数量可以有不同的变化组合。对复杂任务来说,调节阀的总数可以成千上万甚至更多。水管网络中,每一层的每个调节阀都通过水管与下一层的所有调节阀连接起来,组成一个从前到后,逐层完全连通的水流系统。那么,计算机该如何使用这个庞大的水管网络来学习识字呢?

  比如,当计算机看到一张写有“田”字的图片,就简单将组成这张图片的所有数字(在计算机里,图片的每个颜色点都是用“0”和“1”组成的数字来表示的)全都变成信息的水流,从入口灌进水管网络。

  我们预先在水管网络的每个出口都插一块字牌,对应于每一个我们想让计算机认识的汉字。这时,因为输入的是“田”这个汉字,等水流流过整个水管网络,计算机就会跑到管道出口位置去看一看,是不是标记由“田”字的管道出口流出来的水流最多。如果是这样,就说明这个管道网络符合要求。如果不是这样,就调节水管网络里的每 一个流量调节阀,让“田”字出口“流出”的水最多。

  与训练时做的事情类似,未知的图片会被计算机转变成数据的水流,灌入训练好的水管网络。这时,计算机只要观察一下,哪个出水口流出来的水流最多,这张图片写的就是哪个字。

  人工智能技术的应用前景广阔

  大模型加持下,人工智能也正在加速进入千行百业

  ChatGPT这种通用大模型已经引爆垂直领域的千行百业,各行业龙头企业甚至初创企业都摩拳擦掌。金融、教育、医疗、法律、自动驾驶、智能物流、安防等多个领域的行业公司都已相继加入行业大模型的研发中。星环科技研发出金融行业专属大模型——无涯,它是一款面向金融量化领域、超大规模参数量的生成式大语言模型。无涯能够对股票、债券、基金、商品等各类市场事件进行全面的复盘、传播和推演,从时间和空间、深度和广度等多 个方面扩展投资研究的视角,实现了全新的智能量化投研新范式。哈工大提出了一种基于医学知识增强的大型语言模型指令微调方法,打造出中文医学大模型“本草”。“本草”在中文医疗问诊场景中展现出一定的性能提升,模型能够根据用户的问题,提供较准确、可靠的诊断建议和治疗方案,满足非专业人士对医学知识的需求。此外,模型具备一定的自适应能力,能够在不同的中文问诊场景中进行有效的应答,提升用户体验。此外,学而思研发的教育大模型“MathGPT”,理想汽车研发的自动驾驶大模型“MindGPT”。幂律联合智谱AI联合发布了基于中文千亿大模型的法律垂直大模型“PowerLawGLM”。这些都表明,垂直大模型的蓬勃发展。

  AI + 办公:解锁生产力,释放创造力

  微软于2023年3月16日正式发布Microsoft 365 Copilot,并集成在微软365的多个应用程序中,包括Word、Excel、PowerPoint、Outlook、Teams等。它还提供了一个全新体验:商务聊天(Business Chat),它可以跨越LLM、微软365应用程序和用户的数据,根据用户的自然语言提示生成文本内容。 微软Copilot的本质仍然是聊天机器人,但它的功能远比简单地“将ChatGPT嵌入到Microsoft 365中”更强大。

  AI +自动驾驶:深度学习赋能自动驾驶

  自动驾驶有四大核心支柱。感知,即发现周围的环境和障碍;定位,即确定了自己的位置,精度在 1-3 cm;规划,即利用感知和定位,确定了从 A 到 B 的轨迹;控制,即产生方向盘转向角度和加速度值来沿着轨迹行进。而随着神经网络的发展,深度学习在这四大领域中发挥了重要作用。

  来源:未来智库

新浪声明:新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。

微博

HOT RECOMMEND

关于新浪VR | 论坛社区

Copyright © 1996-2015 SINA Corporation, All Rights Reserved 京ICP证000007  京网文【2017】10231-1157号

北京幻世新科网络科技有限公司 版权所有