盖世汽车 02-19
盖世大学堂汽车大模型应用系列知识讲解
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

在当今科技飞速发展的时代,大模型成为了众多领域关注的焦点。它的出现,不仅推动了人工智能技术的巨大进步,还为各个行业带来了前所未有的变革机遇。深入探究大模型的历史、技术原理以及其在不同行业的应用与发展趋势,对于把握未来科技走向和产业发展方向具有至关重要的意义。

一、大模型的发展历程

大模型的发展是一个逐步演进的过程,在这个过程中,关键技术的突破和重要产品的推出起到了决定性的作用。

(一)国外大模型发展轨迹

国外大模型的发展以语言模型为主导,其发展历程可追溯到 2017 年。这一年,transformer 架构横空出世,为大模型的发展奠定了坚实的基础。然而,在当时,transformer 架构的发布并未引起广泛的轰动。随后的几年里,基于 transformer 架构的研究不断深入,许多大语言模型相继涌现,如 T5、GShard、mT5 等。

直到 2022 年,Open   AI 发布 ChatGPT,大模型才真正火爆出圈,引发了全球范围内的广泛关注和热议。ChatGPT 的成功,使大模型技术成为了媒体和行业的焦点,吸引了大量的资源和人才投入到相关领域的研究和开发中。

在 ChatGPT 之前,Open   AI 已经推出了一系列的 GPT 模型,包括 GPT-1、GPT-2、GPT-3 等。这些模型在技术上不断演进,参数量和训练数据量持续增加。GPT-1 的参数量为 1.2 亿,训练数据量为 5GB,它采用了 Transformer   Decoder   Stack 和单方向的自关注模型,能够在文本翻译、摘要生成和问题回答等任务中取得一定的效果。GPT-2 进一步拓展了设计理念,引入多任务学习,参数量提升到 15 亿,训练数据量达到 20GB。它成功展示了即使在没有大量监督学习数据的情况下,模型也能处理多种新应用任务的能力。GPT-3 则取得了更大的突破,参数量高达 175 亿,训练数据量为 300GB。它成功演示了 zero-shot 和 few-shot 场景的优越性能,使模型具备了泛用对话能力。不过,由于训练数据存在偏见和不可靠性问题,GPT-3 有时会生成具有冒犯性的文本,输出结果也常常难以达到用户的期望。

Instruct   GPT 在 GPT-3 的基础上进行了改进,采用格式化提示词规范化训练模型,并引入人类反馈作为奖励信号,通过强化学习 RLHF 更新模型参数,使得模型的输出更加符合人类的期望。而 ChatGPT-4 作为 InstructGPT 的迭代版本,训练数据量达到 85TB,参数量为 100 万亿。它能够处理更多样化的任务,支持大量工具类应用,进一步扩大了 GPT 模型的业务范围。

(二)国内大模型发展现状

国内大模型的发展紧跟国际步伐。2022 年 ChatGPT 发布引发的热潮,促使国内相关公司纷纷加大在大语言模型领域的研发投入。从时间线上看,2021 年浪潮推出源 1.0,开启了国内大模型发展的征程。随后,多家公司相继发布了自己的大语言模型。例如,2022 年 9 月,书生 2.0 大模型发布;2022 年 11 月,轻舟智航推出特征和时序融合的大模型 Omni   Net,小鹏汽车发布 Transformer 大模型,吉利汽车与百度合作推出吉利 - 百度・文心大模型。进入 2023 年,大模型的发布迎来了高潮,360 推出基于 360GPT 大模型开发的 "360 智脑 ",阿里发布通义千问,商汤推出 " 日日新 SenseNova" 大模型体系,华为发布盘古大模型 3.0,京东推出言犀大模型,科大讯飞发布 1+N 认知智能大模型。

尽管国内大模型在短时间内取得了显著的发展,部分模型也已落地应用,并在实际项目中发挥了一定的作用,但整体而言,目前仍处于应用的初级阶段。虽然大模型在理论和技术上展现出了巨大的潜力,但在实际应用中,能够解决的实际问题仍然有限,与人们的期望还存在一定的差距。

二、大模型技术演进中的关键节点

大模型的技术演进过程中,有几个关键的节点对其发展产生了深远的影响。

(一)Transformer 架构的兴起

2017 年 Transformer 架构的发表,是大模型发展历程中的一个重要里程碑。在此之前,NLP 领域的深度学习主要依托改进的 LSTM 模型和少量改进的 CNN 模型。然而,由于业务分散,数据独立组织,单个模型的数据量不足,即便构建更深的模型,也难以获得理想的效果。同时,LSTM 和 CNN 特征抽取器的表达能力有限,无法有效地吸收数据中蕴含的知识,导致 NLP 的性能提升困难。在自动驾驶领域,当时的模式也是根据需求拆分的独立模型,同样面临数据和模型性能的问题。

Transformer 架构的出现,为 NLP 和图像业务带来了新的发展机遇。它基于注意力机制建模词之间的关系,能够更好地处理长序列数据,具有更强的特征表达能力。随着基于 Transformer 的 NLP 和图像业务的逐步发展,其优势逐渐显现,不仅在 NLP 领域取得了优异的成绩,在图像类业务上也展现出了良好的性能,从而引发了人们对 Transformer 架构的高度重视。

(二)Bert 与 GPT 的技术分野

在 Transformer 架构日益受到重视的背景下,Bert 和 GPT 这两个预训练模型应运而生,它们代表了大模型技术发展的两个主要方向。

Bert 采用 Transformer 的编码器结构,其开发范式是预训练加应用微调。在预训练阶段,Bert 通过大量数据学习语言的通用特征,然后在应用阶段,根据具体任务对模型进行微调。这种方式与传统的开发范式相似,本质上是根据业务需求进行训练。在自动驾驶等领域,目前仍较多采用这种以编码器为主的模式。

GPT 则使用 Transformer 的解码器结构,其技术体系以 GPT2.0 为代表,采用 " 自回归语言模型(即从左到右单向语言模型)+Zero/FewShotPrompt" 模式。与 Bert 不同,GPT 不需要对模型进行微调,而是通过配合提示词来完成各种任务。在早期,由于训练通常能带来更好的效果,而提示词的效果相对不稳定,难以控制,因此 GPT 在当时并不被广泛重视。

(三)GPT 后来居上的原因剖析

尽管在早期 Bert 在工程化和商业化方面具有更好的前景,多数后续技术改进也沿着 Bert 的路线进行,且效果优于当时的 GPT,但随着模型规模的不断扩大,GPT 模式逐渐展现出其独特的优势。

从任务处理能力来看,GPT 类的自然语言生成任务在表现形式上可以兼容自然语言理解任务,而 Bert 模式在处理生成任务时存在一定的局限性。对于以零示例提示语(zero   shot   prompting)或少数示例提示语(few   shot   prompting)方式完成任务,GPT 模式效果要优于 Bert 模式。

在模型应用场景方面,随着 LLM 模型规模的不断增大,有能力训练和改动模型参数的机构越来越少。而任务需求方大多是中小机构甚至个人,他们无力部署大规模模型,更难以采用 Fine-tuning 模式修改模型参数。因此,采用 prompt 模式完成任务,即不需要修正模型参数就能让任务需求方完成任务的方式,成为了更符合实际需求的选择。这使得 GPT 模式在大规模模型应用中后来居上,目前规模最大的 LLM 模型,几乎清一色采用类似 GPT3.0 的模式。

三、大模型在不同行业的应用现状与挑战

大模型在多个行业得到了广泛的应用,但在应用过程中也面临着诸多挑战。

(一)自动驾驶领域的应用与难题

在自动驾驶领域,大模型技术正逐渐得到应用。早期,自动驾驶主要采用根据需求拆分的独立模型,面临数据量不足和模型性能受限的问题。随着 Transformer 架构的发展,以其为基础的端到端模型设计逐渐兴起。目前,自动驾驶业务更多地采用类似 Bert 的模式,即使用编码器进行预训练和应用微调。

然而,大模型在自动驾驶领域的应用仍面临一些挑战。一方面,自动驾驶对模型的安全性和可靠性要求极高,任何错误的决策都可能导致严重的后果。尽管大模型在处理复杂场景方面具有一定的能力,但如何确保其在各种情况下都能做出准确、安全的决策,仍然是一个亟待解决的问题。另一方面,自动驾驶数据的获取和标注成本高昂,且数据的质量和多样性对模型的性能有着重要影响。如何有效地获取和利用高质量的数据,也是自动驾驶领域应用大模型需要克服的难题。

(二)商业应用中的成本与效益考量

在商业应用中,大模型的部署和应用成本是一个关键问题。对于中小企业来说,训练和部署大规模模型需要巨大的计算资源和资金投入。以 GPU 为例,其成本高昂,且随着模型规模的增大,对 GPU 的需求也相应增加,这使得许多中小企业难以承受。此外,即使企业能够获取到云上资源,也可能面临数据保密性和合规性等问题。

从效益方面来看,目前一般性规模的模型所能产生的效益与投入的成本相比,仍不具备明显的优势。例如,在一些企业应用中,使用大模型可能只是为了完成一两项特定的任务,但为此投入的服务器成本和人力成本可能并不低于使用传统方法或雇佣少量人员的成本。因此,如何提高大模型在商业应用中的性价比,是企业在应用大模型时需要重点考虑的问题。

四、大模型的未来发展趋势

大模型的未来发展呈现出多模态融合和垂类与通用模型协同发展的趋势。

(一)多模态融合的发展方向

多模态是大模型未来发展的重要方向之一。目前的大模型虽然在语言处理方面取得了显著的成果,但实际上大模型的理想形式是多模态的。人类在认知过程中,会同时接收和处理多种模态的信息,如视觉、听觉、触觉等。多模态大模型通过融合多种模态的数据,可以更接近人类的认知方式,从而获得更准确、更丰富的结果。

在自动驾驶领域,多模态技术可以将传感器数据(如摄像头图像、雷达数据等)与语言指令相结合,使车辆更好地理解周围环境和任务要求,做出更合理的决策。在机器人领域,多模态大模型可以让机器人更好地感知和理解周围环境,与人类进行更自然、更有效的交互。随着多模态技术的不断发展,自动驾驶与多模态业务的技术路线将逐渐统一,这有望推动相关产业的快速发展。

(二)垂类与通用模型的协同发展

垂类模型和通用模型在未来将呈现协同发展的趋势。垂类模型专注于细分市场,通过深入挖掘特定领域的需求和数据,能够在细分任务上实现高精度和专业化。例如,在机器人行业,企业可以针对特定的业务场景,如物流搬运、医疗护理等,开发专用的垂类模型,以满足客户的个性化需求。

通用模型则致力于提升认知维度,构建更强大的基础模型。以特斯拉为例,它在追求世界模型的过程中,希望通过通用模型提升对世界的整体认知能力。同时,特斯拉也会基于通用模型,进一步训练行业细分模型,以满足不同业务场景的需求。

在行业生态中,垂类模型和通用模型相互依存。垂类模型的发展需要通用模型提供基础支撑,包括数据、算法和工具链等。而通用模型的发展也离不开垂类模型在细分领域的实践和反馈,通过不断吸收垂类模型的经验,通用模型可以不断优化和完善。

五、大模型应用的关键要点与案例分析

在大模型的应用过程中,有几个关键要点需要关注,同时通过具体案例可以更好地理解大模型的应用效果和潜力。

(一)凝练共性的重要性

大模型的核心在于凝练共性。一个有效的大模型需要从大量的数据中提取出具有普遍性和代表性的特征和规律。以自动驾驶大模型为例,它凝练的是应对各种环境的驾驶策略,这种共性使得模型在面对未见过的场景时,也能够做出合理的决策。而对于一个公司而言,如果要构建大模型,就需要明确凝练的共性是什么。例如,一个业务多元化的公司,其不同业务之间的共性可能并不明显,此时构建统一的大模型就会面临挑战。相反,专注于某一特定领域,如高考数学题库的大模型,由于题目之间存在明确的内在关系和出题规律,就更容易凝练出共性,从而实现有效的建模。

(二)特斯拉案例分析

特斯拉在大模型的应用方面具有典型性。特斯拉的机器人和智能驾驶系统在技术堆栈上有很多复用之处。例如,特斯拉在自动驾驶中提出的提速模型,不仅应用于汽车驾驶系统,也在机器人的运动控制中得到体现。这表明特斯拉通过构建通用的大模型,实现了不同业务场景下的技术共享和能力迁移。

同时,特斯拉在发展过程中注重从真实世界中回收数据,并进行领域累计的差分数据处理。通过与真实世界的交互,不断优化和完善世界模型(多模态模型)。这种基于实践驱动的模型发展方式,使得特斯拉的大模型能够更好地适应实际需求,提升性能和可靠性。

大模型的发展经历了从早期技术探索到关键技术突破,再到广泛应用和未来趋势展望的过程。在这个过程中,技术的创新和应用场景的拓展相互促进,推动着大模型技术不断向前发展。尽管目前大模型在应用中还面临一些挑战,但随着技术的不断进步和行业的深入探索,大模型有望在更多领域实现突破,为人类社会的发展带来更多的价值。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 未来科技 翻译 效果 人工智能技术
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论