首页研究报告行业研究人工智能2025“人工智能+”行业发展蓝皮书
在在

文档

3127

关注

0

好评

0
PDF

2025“人工智能+”行业发展蓝皮书

阅读 912 下载 59 大小 7.33M 总页数 0 页 2025-05-06 分享
价格:¥ 9.90
下载文档
/ 0
全屏查看
2025“人工智能+”行业发展蓝皮书
还有 0 页未读 ,您可以 继续阅读 或 下载文档
1、本文档共计 0 页,下载后文档不带水印,支持完整阅读内容或进行编辑。
2、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
4、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。
安泰经管学院ANTAI COLLEGEEconomics.Management行业研究院2025主明出处”人工智能+”行业发展蓝皮书Artificial Intelligence "Industry Development二海交大行研院报告上海交通大学安泰经济与营理学院上海交通大学行业研究院“人工智能+”行业研究团队2025年3月主编:史占中、陈晓荣校阅:周辰、张晔、窦玉梅、孙崇理、刘香港整合排版:刘香港引言:全球化视野看人工智能(史占中、王计登、窦民)第1章AI大模型:实现通用智能的重要桥梁(窦民)第2章AI数据:驱动智能时代的核心引擎(李薇、商言凯、管航)第3章AI算力:支撑智能进化的底座(王计登、窦玉梅、刘香港)第4章AI赋能相关产业领域的典型应用场景4.1AI赋能未来制造业的应用场景(章明根)4.2AI赋能未来信息产业应用场景(窦玉梅、王计登)引用注明出处4.3AI赋能未来材料产业应用场景(张弛、刘香港)4.4AI赋能未来能源产业应用场景(董密尔)4.5AI赋能未来健康产业应用场景(许蕾、窦玉梅)4.6AI赋能未来空间产业应用场景(张晔、刘香港)4.7AI赋能未来金融服务业创新实践(黄志锋)4.8本章结语(刘香港、张晔)第5章AI赋能行业应用案例5.1AI赋能制造行业应用案例(章明根、刘子昱)5.2AI赋能信息科技行业应用案例(王计登、窦玉梅、刘香港)5.3AI赋能材料行业应用案例(刘香港)5.4AI赋能能源行业应用案例(董密尔)5.5AI赋能健康医疗行业应用案例(许蕾、窦玉梅)5.6AI赋能空间行业应用案例(刘香港、张晔)5.7AI赋能金融行业应用案例(黄志锋)第6章国内外人工智能产业政策及趋势分析(孙玉贝、肖耀、丁紫玉、孙崇理、周辰)第7章人工智能发展伦理和治理框架7,1人机关系和伦理问题(屈杰)7.2AI数据和隐私保护(林玉岚)A内容安全和虚假信息(辛咏琪)上海7.AI知识产权和责任归属(周辰)处全球正在见证一场由人工智能驱动的“技术一经济”范式重构。人工智能作为拥有自我进化能力的通用赋能技术,正以指数级创新速度突破“技术经济社会”的三重边界,其影响力已超越传统ICT技术的历史坐标系,展现出重塑人类文明进程的史诗级能量。人工智能的技术路径和产业生态尚处于不断演变的阶段,未来可能会出现新的主导技术路线,赋能行业发展也将带来更多可能性。人工智能与前沿技术产业领域,如先进制造、量子计算、生命科学、新材料、新能源等加速融合,将催生出更多新的科技和产业赛道。本报告旨在梳理人工智能发展现状与趋势,并通过对相关产业领域注要应用场景与典型案例的跟踪研究深入剖析A!在行业深度应用中面临的问题与挑战,希望为政府主管部门和相关行业企业提供决策参考,共同探讨1如何助推传统产业转型升级,引领未来产上海交大行矿业创新发展。目录目录引言:全球化视野看人工智能一、人工智能的起源与范式演进二、技术突破与全球竞争格局三、国际合作与治理框架四、社会影响与伦理挑战五、未来方向:可持续与普惠发展处本章参考文献第1章AI大模型:实现通用智能的重要桥梁1.1国内外大模型技术发展态势.1.2浅析大模型的核心技术…1.3大模型技术发展趋势展望.本章参考文献…第2章AI数据:驱动智能时代的核心引擎2.1模型突破推动数据需求升级2.2驱动因素推动数据生产革新172.3技术演进推动数据生态重构192.4全球竞争推动数据战略迭代20本章参考文献…第3章AI算力:支撑智能进化的底座3.1上游:AI算力硬件基础层3.2中游:算力软件服务层3.3下游:算力应用场景层.303.4算力发展现状与挑战分析323.5算力发展趋势与方向…353.6结语……37本章参考文献…第4章AI赋能相关产业领域的典型应用场景4.1AI赋能未来制造业的应用场景404.2A赋能未来信息产业应用场景.4.3AI赋能未来材料产业应用场景464.4AI赋能未来能源产业应用场景4.5AI赋能未来健康产业应用场景574,6AI赋能未来空间产业应用场景4.7AI赋能未来金融服务业创新实践.684.8结语.…74本章参考文献…第5章AI赋能行业应用案例805.1AI赋能制造业应用案例805.2AI赋能信息科技行业应用案例825.3AI赋能材料行业应用案例目录5.4AI赋能能源行业应用案例…5.5AI赋能健康医疗行业应用案例905.6AI赋能空间行业应用案例945.7AI赋能金融行业应用案例…本章参考文献第6章国内外人工智能产业政策及趋势分析1036.1人工智能治理困境与监管沙盒1036.2国内人工智能产业政策及环境分析.105处6.3国际人工智能整体产业政策1086.4未来政策趋势1096.5结语.…110本章参考文献…111第7章人工智能治理与伦理7.1人机关系和伦理问题1127.2AI数据和隐私保护….1177.3AI内容安全和虚假信息7.4AI知识产权和责任归属7.5结语…130本章参考文献131上海交大行研院报告引言:全球化视野看人工智能引言:全球化视野看人工智能人工智能()的全球化发展正以前所未有的速度重塑技术、经济与社会结构。这一进程不仅体现为技术突破的加速、A+产业变革,更涉及国际合作、治理框架的构建以及伦理风险的平衡。以下从多维度解析AI全球化发展的关键趋势与挑战。一、人工智能的起源与范式演进人工智能的学科起源可追溯至1956年的达特茅斯会议),约翰·麦卡锡(John McCarthy)克劳德·香农(Claude Shannon)、马文·明斯基(Marvin Minsky)等著名学者首次明确提出了“人工智能"的概念,通过计算机模拟人类智能,实现语言理解、抽象推理和自主问题解决。随后,人工智能的技术范式先后历经了从规则、统计再到深度神经网络驱动的三个阶段发展历程。20世纪60至80年代,规则驱动范式主导了A1发展,“符号主义"主张根据人类专家知识的规则库进行推理和决策。90年代后,统计学习范式崛起,◆贝叶斯网络、支持向量机等算法通过数据驱动模式优化参数,推动垃圾邮件过滤、搜索引擎排序等应用落地,标志着A从"人工定义规则"向“基于数据进行学习和推理"的范式转移。公众广为熟知的是现在所处的AI发展第三阶段一深度神经网络。2012年成为AI发飞组织的ImageNet竞赛中以压倒性优势击败传统方法,标志着人工智能进入了深度学习时代。这一突破背后是神经网络、数据和算力三大要素的融合,卷积神经网络通过自动学习特征,其效果超越了手工设计的特征,海量数据为算法提供了文本、图像、语音等多模态燃料,大规模并行计算使得训练数十亿参数模型成为可能,重塑了AI研究的范式。2017年还催生了GPT、BERT等大语言模型,使自然语言理解的准确率超越人类基线。至此,深度学习完成了从实验室理论到产业基石的华丽转身,驱动聊天机器人、智能客服、医疗影像分析、自动驾驶、具身智能等场景的规模化落地。纵览过去七十年间人工智能的发展历程,技术演进始终贯穿着符号主义、连接主义与行为主义的哲学张力。符号主义追求具备可解释性的规则推理;连接主义主张通过模拟人脑神经元的连接方式来实现人工智能;行为主义则强调通过试错与交互来优化行为。与此同时,我们可以清晰地看到,人工智能的重大突破往往源于未知前沿的探索精神、基础理论(如ransformer的数学建模)与工程实践(如分布式训练框架)的协同共振,众多胸怀大志之人正在通往人工智能的道路上全力书写下一个辉煌篇章。全球人工智能产业发展历程如下图:引言:全球化视野看人工智能1956年达特茅议2017年101954年1950s1960s1970s1980s1956-19761976-11982-198219871987-1997第一次第一次第二次第二次复苏期低谷期技术领域再次升与互联网技规则推演发展目标足计算于符号处理的推理实现难度较图1全球人工智能发晨脉络用注出处Zero2010s2020s1997-20102010-增长爆发期计算性能的提术的快速普及二、技术突破与全球竞争格局全球AI技术呈现多极化竞争态势,美国、中国、欧洲等国家和地区通过大型模型研发与政策扶持争夺主导权。如,美国企业OpenAI、谷歌和xAI公司持续推出GPT、Gemini及Grok等系列模型,提升多模态能力与计算效率;中国企业月之暗面的Kmi、字节的豆包、腾讯的混元以及阿里的通义系列等模型表现出显著竞争力,尤其是深度求索公司DeepSeek发布的开源模型以高性价比引发关注;法国Mistral公司推出高速生成的开源助手Le Chat成为“欧洲之光”。与此同时,各国政策支持力度持续加大,如美国“星际之门"项目计划投资5000亿美元建设AI基础设施,欧盟则通过投资人工智能"倡议调动2000亿欧元推动超级工厂建设。三、国际合作与治理框架技术发展的全球化特征要求超越地缘政治的合作。2025年巴黎人工智能行动峰会签署《关于发展包容、可持续的人工智能造福人类与地球的声明》,强调开放、透明、安全等原则,呼吁建立全球治理体系。中国积极参与国际对话,推动《全球人工智能治理倡议》和联合国相关决议,倡导技术普惠与风险共担。如清华大学人工智能国际治理研究院提出,需通过国际标准制定、数据共享和技术转移缩小“AI鸿沟”,避免技术垄断加剧全球不平等。四社会影响与伦理挑战AI的普及在提升生产效率(如医疗诊断、农业管理)的同时,也会引发结构性风险。如,生成式AI可能加剧就业市场的两极分化,高收入国家更易受益于技术红利,而发展中国家因基础设施滞后面临边缘化风险。伦理问题同样突出,包括算法偏见、隐私侵犯及超级智能失控的可能性。国际学界呼吁加强AI伦理研究,将人类价值观嵌入技术设计,并通过跨学科合作(如法律、社会学)构建适应性治理框架。引言:全球化视野看人工智能五、未来方向:可持续与普惠发展AI的可持续发展需兼顾能源效率与社会公平。当前大模型训练的高能耗问题(如ChatGPT单次训练耗电量达家庭数月用量)促使业界探索绿色计算与低资源算法。此外,普惠应用成为关键议题,如中国通过AI赋能基层医疗和传统产业数字化转型,展示了技术下沉的潜力。WTO报告预测,若全球均衡应用AL,2040年前贸易增速可翻倍,但需通过际合作消除数据流动壁垒与本地化政策限制。本章参考文献出处[)国务院发展研究中心国际技术经济研究所,中国电子学会,智慧芽.人工智能全球格局?未来趋势与中国位势M.北京:中国人民大学出版社,2019.[2]Krizhevsky A,Sutskever I,Hinton G E.Imagenet classification with deep convolutional neuralnetworks[].Advances in neural information processing systems,2012,25.[3]VaswaniA,Shazier N,Parmar N,et al.Attention is all you need[J].Advances in neuralinformation processing systems,2017,30.[4)Yann Le Cun.科学之路:人,机器与未来M李皓,马跃,译北京:中信出版集团,2021[5】中国、法国、印度、欧盟在内的60个国家和组织,《关于发展包容、可持续的人工智能造福人类与地球的声明》[EB/OL].上海交大行研院报https://my.ambafrance.org/Statement-on-inclusive-and-sustainable-artificial-intelligence-for-people-and第1章A算法“大模型”:实现通用智能的重要桥梁第1章A算法“大模型”:实现通用智能的重要桥梁1.1国内外大模型技术发展态势当前大模型开辟了通用人工智能技术演进的新路线,正在深刻改变人类社会生产生活。大模型是当前科技发展的制高点,也是中美科技竞争的焦点。创者和Scaling Law的坚定信奉者及实践先驱。自2022年l1月推出现象级产品ChatGPT)以来,该企业通过持续突破不断重塑行业认知,产品上线两个月用户破亿,展现通用人工智能的早期雏形;次年4月问世的GPT49在律师资格统考等专业测试中超越90%人类考生9月系统升级实现视觉与语音交互),莫定多模态认知基座,推动教育个性化与客服智能化深度变革。OpenAI技术迭代在2024年迎来爆发期,2月视频生成模型Sora突破动态语义理解瓶颈6),开启AI内容创作新纪元;下半年连续推出0系列推理模型,通过分层认知架构实现复杂决策推理;2025年初推出支持复杂研究任务的Deep Research功能,发布的GPT4.5更号称在认知维度实现飞跃,其万亿级参数模型不仅构建起迄今为止人类知识最完整的数字镜像,更在情感计算与共情交互领域取得突破。除了OpenAI,美国的Anthropic、Google、Meta以及xAI等企业都在大模型领域持续发力,逐渐形成了“OpenAI领跑,Anthropic、Google和xAI追赶,Meta开源"的竞争态势。Anthropic初创团队出自原OpenAI,.专注于安全和伦理。2023年3月,Anthropic发布第-版Claudel,宣布与ChatGPT展开直接竞争。2024年3月,发布Claude31o增强数学和编程能力。6月推出Claude3.5 Sonnet!平衡性能和能力,提升用户体验。2025年2月推出直致力于AI领域的创新,2023年2月发布Bard作为ChatGPT的竞争者。2023年11月,Gemini1.01正式发布,接棒Bard成为继任者。2024年2月推出Gemini1.5Pro[15],采用MoE架构,扩展上下文长度,2025年2月,推出Gemini2.0l1,上下文长度达到200万token,多模态能力进一步强化。xAI由Elon Musk创立,迅速成为AI领域的后起之秀。2024年2月开源Gok117,促进社区合作和提高透明度。2024年8月发布Grok21周,提高模型性能。2025年2月向大众免费提供Grok3),在思维推理上提升显著,并推出DeepSearch功能。在大模型方面,Mta扮演的角色专注于开源AI模型,推动社区合作和创新。2023年2月,开源ama,成为很多大模型研究的基座。2024年7月,发布的Llama3.1405B是当时最大开源AI模型,能力媲美商业模型。12月又开源Lama3.32),以70B参数量媲美405B性能。中国AI大模型的发展也受到全球AI热潮的推动,2023年是关键转折点,各大科技公司和初创企业开始推出自己的大语言模型,号称“百模大战”,主要参与者包括百度、阿里、字节、腾讯、商汤、华为,以及“I大模型六小虎”(零一万物、稀宇科技、月之暗面、阶跃星辰、百川智能、智谱华章)。2023年3月,百度发布文心一言),成为中国首个AI聊天第1章A!算法“大模型”:实现通用智能的重要桥梁机器人。8月阿里开源发布Qwen系列2),成为早期开发者社区的重要资源,8月发布Qwen-VL2,可以感知文本图像。12月,百川开源Baichuan.22,数学和逻辑推理、复杂指令跟随能力提升显著,2024年竞争加速,3月月之暗面宣布Kimi支持200万token上下27),4月商汤发布日日新5.02),9月阿里开源Qwen2.52,支持多模态,最大模型参数量72B。10月,智谱发布智能体AutoGLM30,支持手机、网页和电脑端操作。2025年1月稀宇科技-Minimax开源发布MiniMax--Text-O1和MiniMaxVL-01Bl,支持400万token上下文窗口和多模态功能。随后,阿里发布Qwen2.5-MaxB和Qwen2.5VL,在语言和多模态上体现了对标国外顶尖模型的能力。与此同时,以上海人工智能实验室为代表的中国科研机构也在大模型领域展现了自己的优势。该实验室构建了书生通用大模型体系,涵盖多模态、语言和视频生成能力。2021年实现开源和免费商用。2024年,开源浦语2在200K长上下文中大海捞针表现卓越;图文大模型InternVL列以l/3参数量实现VT-22B性能,升级版的IntemVL1.5I表现接近GPT-4Vision水平。进一步,多模态大模型书生·万象2.03例首创渐进式对齐训练,实现与GPT4o和Gemini1.5Pro媲美的性能。浦语3.04o以4T数据训练出高性能模型,万象2.5成为首个MMMU得分超70%的开源模型4。在视频生成方面,2023年全球首发开源文生视频DiT2025年初,AI领域最炙手可热的现象级公司莫过于深度求索(DeepSeek)。它发布了两款具有里程碑意义的模型:DeepSeek~V3混合专家(MoE)大语言模型4纠和DeepSeek-R1推理模型。这一模型组合通过系统性的工程创新,显著提升了全球大模型研发的效能基准。据业界有关团队估计DeepSeck-V3在训练阶段仅消耗278.8万H800GPU小时(折合557.6万美元),采用2048卡集群配置实现行业领先性能,该训练成本可能约为行业平均水开源推理模型(Reasoning Model,即以逻辑和系统的方式进行思考,利用证据和过往经验来得出结论或作出抉择),通过强化学习在复杂推理任务上达到了与OpenAI o1模型相当的性能,形成了“训练-推理"双引擎驱动的技术架构。DeepSeek的技术演进成功突破了传统的算力军备竞赛模式,通过开源模型架构和高效训练方法,推动了AI技术的普惠化,打破了大模型仅被OpenAI、Meta和Google等巨头垄断的“神话",降低了行业准入门槛,对硅谷和华尔街,乃至全世界AI产业产生了显著冲击。随着国内科研团队在大模型领域的不断创新,全球AI竞争格局正在重构。1.2大模型的核心技术近年来,以Transformer架构为代表的生成式预训练大模型正在重塑人工智能的技术版图。这些具备千亿级参数以上的智能系统不仅展现出惊人的语言理解与生成能力,更在跨模态交互、复杂推理等维度持续突破认知边界。大模型的技术体系庞大,发展更是日新月异,第1章A算法“大模型”:实现通用智能的重要桥梁本节将试图用比较通俗的语言来解构支撑大模型发展的核心技术体系:首先剖析Transformer架构的自注意力机制如何突破传统神经网络的序列建模瓶颈,奠定大模型的基础骨架;继而揭示"预训练微调"范式与强化学习的协同作用,解读模型如何通过海量数据预训练获得通识能力,再经由领域适配实现专业化转型;重点探讨交互提示工程对模型认知对齐的关键价值,以及推理时间扩展技术如何突破模型固有思维框架;最后聚焦扩散模型等新兴技术如何推动生成质量跃升。这些技术模块共同构建起大模型的进化阶梯,使其逐步实处现从数据驱动到知识内化、从通用应答到专业赋能的范式转变,正在重塑人机协作的智能新1.2.l大模型的基石:Transformer架构人工智能研究者的一个理想,就是想让机器像人一样理解语言、看懂图片。Transformer架构是实现这个目标的关键技术之一。Transformer架构是现代大模型的核心,首次由Vaswani等人在2017年提出山。它通过多头注意力机制和位置编码处理序列数据,解决了传统循环神经网络(RNN)在并行处理和长距离依赖上的局限性。当前,Transformer已经成为大模型的首选架构。Transformer架构的优点来自:(1)并行处理能力:传统的神经网络(比如NN)像一条流水线,必须按顺序处理数据,速度很慢。而Transformer可以同时处理所有数据,就像多条流水线一起工作,大大提高了效率。(2)长距离依赖:在一句话中,后面的词可能受到前面很远处的词的影响。Transformer能很好地捕捉这种长距离的依赖关系,让模型更好地理解上下文。(3)多头注意力机制:想象一下,你在阅读一篇文章,有些词语会特别吸引你的注意力。Transformer的“"多头注意力机制就像多个“注意力过滤器",让模型能够同时关注输入数据的不同部分,从而更好地理解其含义。Transformer目前在大模型中得到了非常广泛的应用。在语言模型上,Transformer是构建大语言模型(LLM)的基础,比如GPT系列。这些模型可以生成文本、翻译语言、回答问题等等。而在多模态大模型中Transformer不仅能处理文字,还能处理图像、音频等多种类型的数据。如,视觉Transformer(ViT)将图像分割成小块,然后像处理文字一样处理这些小块,从而实现图像分类、目标检测等任务。22模型的成长之路:预训练、微调和强化学习训练大模型就像培养一个孩子,需要经历不同的阶段,学习各种知识和技能。通常情况下,训练分为三个主要阶段:预训练(Pre-training)、微调(Fine-tuning,FT)和强化学习(Reinforcement Learning,RL),后两者也常常被称为后训练阶段。(1)预训练:打好基础预训练是模型的初始阶段,目标是在大规模文本、图像等语料库上训练模型。预训练就第1章A算法“大模型”:实现通用智能的重要桥梁像让孩子读中小学,学习通用的知识和技能。在这个阶段,模型会在海量的数据上进行训练,学习语言、图像的模式、知识的结构等等。主要的预训练任务包括:掩码语言建模(Masked Language Modeling,MLM):就像做完形填空,模型需要预测被遮盖的词语,从而学习上下文关系。因果语言建模:让模型续写故事,模型需要预测下一个词语,从而学习生成文本。下一句预测(Next Sentence Prediction,NSP):就像成语接龙,模型判断两个句子是否连续,增强句子关系理解。在多模态模型预训练中,主流的预训练任务还包括图像文本匹配、掩码多模态建模等图像文本匹配:模型需要判断给定的图像和文字描述是否匹配,从而学习跨模态的关联。掩码多模态建模:类似于掩码语言建模(MLM),但应用于不同模态,模型必须预测序列中缺失的部分,如文本、图像补丁或其他数据类型,类似看图说话或者根据文本画图的游戏。(2)微调:培养特长微调是将预训练模型适配到特定任务的过程,通常使用较小、任务特定的数据集,可以显著提升模型在下游任务如文本分类、问答和翻译上的表现。微调就像让孩子上大学,通过专业课学习特定的专业知识和技能。在这个阶段,模型会在特定的数据集上进行训练,以适应特定的任务。通常情况下使用的技术是监督微调(Supervised Fine-.tuning,SFT)。就像做练习题,模型会学习输入和输出之间的对应关系,从而学会生成特定的输出。如在聊天机器人开发中SFT可以帮助模型生成符合用户期望的回复。另一个技术是领域适配,为了让"通才"的大模型,成为某一个细分领域的专家,需要用专业数据改造通用模型,赋予他这个领域的特色能力。(3)强化学习:从做题家到解题高手就像学生通过大量做题积累经验,强化学习让大模型在模拟环境中不断尝试不同解题思路。每次尝试后,系统会给出评分(比如答案是否正确、解题步骤是否合理),模型根据这些反馈调整自己的思考方式。强化学习还可以通过"思维链"技术(Chain of Thought,CoT),让A学会像人类一样拆解难题:先列已知条件,再分步骤推导,最后验证结果。这种训练让OpenAI的ol模型在国际数学竞赛中正确率从13%飙升至83%。强化学习也可以让输出更符合人类偏好,基于人类反馈的强化学习(ReinforcementLearning from Human Feedback,RLHF)是模型输出与人类偏好对齐的重要方法,让人类评价模型的输出,然后用这些反馈来改进模型。这就像让老师给学生打分,从而帮助学生进步。RLHF解决了模型输出安全性和实用性的挑战,特别是在对话系统和内容生成中,显著提升了用户体验。第1章A算法“大模型”:实现通用智能的重要桥梁当预训练数据不够时,强化学习能让AI自己创造训练场景。如AlphaGo一般,AI可以通过自我对弈生成新题目,像棋手“左右互搏”一样持续提升。在自动驾驶等实时场景中,强化学习让模型像老司机一样,根据路况动态调整策略,在动态、实时、交互中不断学习和进步。1.2.3让AI更懂人类:交互与提示技术训练好的大语言模型就像一个刚入职的聪明实习生,虽然知识渊博但缺乏工作经验,需要通过清晰的"工作指导书”一提示词(Prompt)L一才能高效完成任务。这种指导方式主要有三大模式:零样本学习:好比直接问实习生”用小学生能听懂的话解释万有引力定律”,无需提供任何案例,模型仅凭对任务的理解就能生成答案。这种方式适用于常识类任务,类似人类基于已有知识快速响应新问题。少样本学习:好比案例教学,就像给实习生看几个优秀方案模板,模型通过25个示例就能掌握任务规律。这种技术特别擅长处理格式固定的任务(如邮件撰写、数据表格生成、客服回复等)思维链提示:面对数学、代码这类复杂问题,让模型像学生写草稿纸那样逐步推理,改善复杂任务表现,避免直接跳转到错误结论。提示工程的核心技巧在于“结构化表达",通常包括角色设定、任务分解、格式规范、纠错机制等几个要素。提示词技术灵活性高,特别在资源有限的场景中表现优异,可以通过精心设计提示词最大化模型性能。当前提示工程师已经成为AI时代的热门职业之一。1.2.4突破思维局限:推理时间扩展诺贝尔经济学奖得主丹尼尔卡尼曼在著作《思考快与慢》側中提出人脑有两个思维模型:其中系统一基于直觉和本能,无需刻意思考,就能快速做出正确的决定;而系统二则基于理性思考,当遇到复杂问题的时候会理性地分析问题,花费更多的时间和努力再来做出决策。传统的A大模型(如GPT4)的推理过程更接近系统根据next token prediction,依赖预训练形成的知识直觉快速生成答案,但随着任务复杂度提升(如数学证明、代码优化),缺乏对复杂问题的分步验证和纠错机制,导致逻辑断层和事实幻觉,而且单纯扩大模型参数规模的边际收益也在下降,这个背景下推理时间扩展(test--time scaling,TTS)通过赋予模型动态分配计算资源的能力,实现了从"直觉反应"到“深思熟虑"的范式转变。该技术的核心在于推理阶段的动态计算优化,包含三大创新方向:(1)多步推理迭代,多动脑多想几遍链式思考(Chain-of-Thought):就好像写草稿分步骤,做数学题时先假设条件再推导结论,模型就像用“<假设><结论>"的标签分步骤写草稿,边想边检查。共识生成(Consensus):遇到难题时,让模型像小组讨论一样提出多个答案,然后投第1章A算法“大模型”:实现通用智能的重要桥梁票选最好的(比如5个答案里选出现次数最多的),或者用"评分老师”(奖励模型)挑出最优解。搜索优化(Search):就像程序员写代码时,写完先运行看报错,再根据错误提示修改,反复改错直到做对。(2)计算资源动态调控,灵活控制思考时间预算强制(Budget Forcing):类似考试时间分配,给模型设置"最长思考时间”,简单的题快速答完(用.提前交卷),难题多想想(用标签继续思考)。就像考试时先做简单题,留更多时间给大题。潜在空间推理(Latent Reasoning):心算代替笔算,有些思考不需要写出来,像数学高手在心里快速推算。某些模型用这种方法,1秒钟能处理近4000个词,比边写边想快3倍。(3)强化学习驱动优化,学练测闭环迭代两阶段强化学习训练:第一阶段重点训练“解题步骤规范”(比如数学符号不能写错)像老师町着你改作业。第二阶段还要兼顾“回答是否有用”、“是否安全”,就像学霸不仅会解题,还要学会把知识讲明白。过程奖励模型(Process Reward Model,PRM):大模型每想一步就有个"老师"打分告诉它这一步对不对。就像做题时,每写一步就有人用红笔批改,及时纠正错误。1.2.5从通才到专家:专业能力增强9训练好的大模型尽管已经有了很强的世界知识,但是这些知识的实时性以及某个特定领域的专业度还存在欠缺,需要通过其他技术手段,进一步增强模型的知识和能力。(1)知识检索增强:给模型装上“实时搜索引擎”大模型训练数据截止后,知识会“冻结”(如不知道2025年的新政策)。通过实时网络搜索,在遇到问题时,模型会自动搜索最新资料。针对专业领域或私域数据,可以通过检索增强生成(Retrieva.Augmented Generation,RAG)技术,通过向量匹配和语义理解,从专业数据库中精准提取信息。(2)工具调用能力:让模型学会“用外挂”尽管大模型的通用能力在不断提升,但在专业领域通常有很多专用工具,因此模型的工具调用能力就显得尤为重要。模型能够像指挥官一样,分解任务,选择合适的工具(如计算器、编译器、专业工具链),并整合输出准确的结果。2024年11月由Anthropic推出的开源协议MCP(Model Context Protocol,,模型上下文协议),使AI应用能够安全访问和操作本地及远程数据,让AI模型与外部工具和数据连接,为AI应用提供了连接万物的接口。(3)多专家协同:组建“AI专家会诊团”当存在多个领域模型的时候,可以让多个领域模型组合,形成"muti-agent'"系统,完成复杂任务。就像在医疗咨询时,先由分诊模型判断科室,再转接专科模型进行专业诊断。2025年4月,Google开源首个标准智能体协议Agent--to-Agent(A2A),详细定义了一组标准端第1章A算法“大模型”:实现通用智能的重要桥梁点和响应模型,使得任何智能体Agent都可以采用此协议进行通信,聚焦于Agent之间的协作,消除技术栈之间的障碍。通过类似MCP、A2A这些围绕AI系统构建的新技术的诞生,AI产业朝着协作而非对抗的方向进化。模型的专业性和实时性得到了显著提升,能够在各个领域提供更精准、实时和高效的支持。1.2.6从混沌到清晰:扩散模型讲到人工智能生成内容(AIGC,即AI Generated Content;或国外亦称为GenAIGenerative AI),一个绕不开的话题就是扩散模型(Diffusion Model)l。出处扩散模型的核心思想是通过逐步添加噪声来破坏数据(如图像),然后再通过一个学习模型逐步去噪,恢复出原始数据。想象一下,你有一张清晰的照片,然后你开始不断地往照片上撒细沙(噪声),越撒越多,照片就越来越模糊,最终完全变成了一堆随机的噪点。这就是正向扩散过程。扩散模型的目标就是学习如何逆转这个过程。也就是说,它要学会如何从一堆随机的噪点中,一步一步地把沙子(噪声)去掉,最终还原成一张清晰的照片。这就是逆向扩散过程,也叫去噪过程。扩散模型在AIGC多个领域已经有了广泛的应用,大家最常见到的文生图模型,可以根据文字描述生成逼真的图像,比如Midjourney,DALL-E2,Stable Diffusion等,还有视频生成模型,比如Sora、Pika、Runway、可灵等。此外还有音频/倍乐生成、3D生成、图像修复和图像超分辨率等,扩散模型凭借高质量、多样性、可控性的生成能力,在各个领域都有着广泛的应用前景。1.3大模型技术发展趋势展望首先是多模态融合和多模态涌现。自然界本身就是多模态世界,人类通过"眼耳鼻舌身意"来感知和认知世界,并且与这个世界交互。同样的,大模型正在从语言这一单一模态处理向深度融合的跨模态交互演进,实现文本、图像、音频、视频,乃至触觉、味觉、嗅觉等多维信息的联合理解与生成。多模态涌现,指的是当多模态大模型的规模(包括模型参数、数据量)以及多模态交互复杂度达到一定的临界点之后,会突然展现出跨模态的推理、泛化、生成甚至创造的能力。在大语言模型中,已经很好展示出了语言的智能涌现。而多模态涌现能力的实现,还有包括跨模态对齐、原生多模态模型架构、参数和数据的规模效应、跨模态信息的互补和增强在内等的技术难关等待攻克,值得人们继续发掘和探索。其次,是高阶的推理能力,解决真实复杂任务。主流的大模型已经几乎穷尽了互联网上的文本知识,称其为“上知天文,下知地理,中晓人和明阴阳,懂八卦,晓奇门,知遁甲”可能也不为过。最新的模型在代码、数学等推理任务上也展示了强大的性能,但是面对真实世界的复杂任务时候,还不能很好地“运筹帷幄之中,决胜千里之外”。除了进一步扩充高阶数据的规模、质量和多样性,还需要突破“思维链推理-强化学习"的技术难点和规模化瓶颈,让模型自我学习和自我迭代,真正让推理能力具备泛化性,结合领域适配和垂直场景强化,10
文档评分
    请如实的对该文档进行评分
  • 0
发表评论

特惠

限量优惠活动

正在火热进行

站长

添加站长微信

领取新人礼包

下载

便携运营智库

立即下载APP

工具

运营导航

工具推荐

帮助

帮助中心

常见问题

分销

50%直推收益

30%间推分成

AI

智能对话

办公助手

顶部