热门文档
- 2025-04-21 11:02:12 2025年中国宠物行业白皮书
- 2024-11-17 13:23:03 Mckinsey:2024中国消费趋势调研
- 2024-07-31 22:30:59 城市飞行营地总体规划及主题体验区概念设计规划案
- 2025-06-17 17:31:50 2024中国医疗器械行业发展报告
- 2025-03-07 11:57:25 【剧星传媒】《哪吒2》资源推荐0205
- 2024-05-19 21:59:54 2024小红书餐饮行业方法论
- 2025-01-16 15:13:48 2025年全新品牌屋框架模型
- 2024-07-21 20:53:59 2024全球E-Bike市场洞察报告(电动自行车)
- 2025-04-01 11:29:02 2025小红书家生活场景需求洞察白皮书-小红书
- 2024-03-22 23:03:56 红爵啤酒品鉴会“红爵之夜 嗨啤TIME ”主题活动策划方案
- 2024-07-09 21:55:15 如何运营你的小红书?
- 2024-08-18 12:25:23 2024年科大讯飞1024招商方案

1、本文档共计 0 页,下载后文档不带水印,支持完整阅读内容或进行编辑。
2、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
4、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。
2、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
4、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。
SAISD上海市人工智能与社会发展研究会全球人工智能社会发展研究报告(2025)Global Report on Artificial Intelligence and Social Development(2025)上海市人工智能与社会发展研究会2025年7月目录二、全球人工智能研究动向.3(一)算力革命:能源困局与绿色算力破局3(二)模型幻觉:谬误和创见共存5(三)数据让渡:便利增益与隐私风险8(四)劳动转型:替代冲击与技能重构10(五)智能鸿沟:技术红利分配的结构性失衡13(六)人机主体性:异化与共生15(七)大国博奔:权力重构与生态重塑18(八)敏捷治理:渐进改进、协同共治20三、结语23附录:参考文献.24运动全球人工智能社会发展研究报告(2025)一、摘要随着生成式人工智能的爆发性演进,技术创新已实现由实验室向社会的全面渗透。当大模型从判别式迈向通用式,当算法从辅助工具演化为自主决策系统,技术已超越工具理性范畴,成为塑造经济秩序、权力结构与文明形态的元力量。进入2025年,人工智能的社会化应用呈现出深度赋能和系统性风险并存的双重图景。一方面,人工智能作为新质生产力的核心引擎,驱动产业智能化升级,孵化出一系列新业态、新场景、新模式,在医疗、教育、新闻、科研等领域释放出巨大潜力。另一方面,数据泄露、算法偏见、隐私侵犯、劳动替代、情感依赖、环境污染等问题,不断挑战社会伦理底线与全球治理体系韧性。在此背景下,上海市人工智能与社会发展研究会推出《全球人工智能社会发展研究报告(2025)》,立足于技术演进和社会发展的双重逻辑,系统梳理近两年人工智能领域国内外前沿研究成果,综合研判全球人工智能最新研究动态,致力于构建具有前瞻性的研究范式与方法论体系,为后续研究提供可能的思路与方向。报告基于学术前瞻性和社会关切度的双重考量,遵循技术本体-社会辐射-治理反馈的逻辑链路,选取了社会科学领域人工智能研究的八大议题:算力变革、模型幻觉、数据让渡、劳动替代、智能鸿沟、大国博弈、人机关系、敏捷治理。报告试图通过深入剖析各议题的前沿进展、核心争议与发展趋势,为政策制定者、研究者及产业界提供兼具理论洞见与实践价值的参考框架。Global Report on Artificial Intelligence and Social Development(2025)With the explosive rise of generative artificial intelligence,technologicalinnovation has achieved its massive penetration from laboratories into society.Asdiscriminative models evolve to generative ones,and algorithms transform fromauxiliary tools to autonomous agents,technology has transcended the realm ofinstrumental rationality,emerging as a meta-force that shapes economic order,powerdynamics,and civilization paradigms.Entering 2025,the social application ofartificial intelligence presents a dual landscape where in-depth empowerment andsystemic risks coexist.On the one hand,artificial intelligence,as the core engine ofnew quality productivity,drives the intelligent upgrading of industries,incubatingnovel formats,scenarios,and models,and unleashes enormous potential in fields ofhealthcare,education,journalism,scientific research,etc.On the other hand,issuessuch as data leakage,algorithmic bias,privacy infringement,labor displacement,emotional dependence,and environmental pollution continuously challenge thebottom lines of social ethics and the resilience of the global governance system.In this context,by synthesizing dual logics of technological evolution and socialdevelopment,Global Report on Artificial Intelligence and Social Development(2025)systematically reviews the cutting-edge research results in the field of artificialintelligence over the past two years,comprehensively analyzes the latest researchtrends at home and abroad,and seeks to build a prospective research paradigm andmethodology framework,providing possible ideas and directions for subsequentresearch.Balancing academic foresight with societal concerns,the report follows thelogical chain of technical ontology-societal impact-governance feedback,andselects eight key research issues on artificial intelligence within social science:computing power transformation,model hallucination,data concession,labordisplacement,intelligence divide,superpower competition,human-machinerelationships,and agile governance.The report delves deeply into the frontierprogress,core controversies,and development trends of each issue,aiming to providea reference framework that combines theoretical insights and practical value forpolicymakers,scholars,and industry stakeholders.全球人工智能社会发展研究报告(2025)二、全球人工智能研究动向(一)算力革命:能源困局与绿色算力破局作为人工智能的基底,算力是维持算法运行、激发数据价值的关键要素。随着全球数据中心的持续扩容,技术进步与环境承载能力之间的张力日益凸显,能源生态问题逐渐成为算力研究领域的显性议题。国内外学者针对算力扩张引发的生态赤字展开了较为深入的分析,主要聚焦在能源消耗、碳排放、电子垃圾三个方面。首先,人工智能产业是能源密集型产业,算力发展对水电等自然资源存在高度依赖。算力基础设施与设备的核心部件是芯片,其研发制造、计算运行、水冷降温都需要庞大且稳定的水电资源支撑(戚凯、杨悦怡,2024)。进一步数据显示,生成式人工智能训练集群的能耗较传统计算负载高出七八倍,ChatGPT搜索的耗电量亦达到网页搜索的五倍。值得注意的是,大模型迭代周期极短,企业常以周为单位推出新版本,导致前期训练投入的能耗沉淀为沉没成本,且新一代模型往往伴随参数规模扩张,进一步推高训练能耗(Adam Zewe,2025)。李坤泽(2025)亦指出,大模型的训练与推理需要不断增加参数,堆叠芯片,让数据中心的耗电量呈指数级增加。即便以DeepSeek为代表的新一代人工智能模型在训练阶段的能耗明显降低,但在不断扩张的巨量使用需求面前,它的总耗电量仍然十分惊人,且持续攀升。这种能源消耗压力已对部分国家的发展规划产生影响,一些国家在维护国内基本用电和发展人工智能之间只能被迫放弃或压缩人工智能的发展计划。例如,阿姆斯特丹、伦敦等多个城市已经因能耗高、电网负荷而停止了新数据中心的建设,新加坡、爱尔兰等国的人工智能产业也因电力供应不足而遭遇发展瓶颈。由此可见,人工智能竞争的尽头可能就是电力之争。其次,能源消耗的激增直接导致碳足迹扩大。研究人员指出,训练“单一大型语言深度学习模型”的二氧化碳排放量约达300吨,而普通人年均二氧化碳排放量仅约5吨(吴红、姜惠,2025)。其中,推理Global Report on Artificial Intelligence and Social Development(2025)SAISD环节碳排放占比尤为显著,大型语言模型应用所覆盖的庞大用户基数则进一步放大了这一环境影响(Eddie Zhang等,2024)。最后,人工智能系统的迭代升级还持续产生电子废物。世界经济论坛(WEF)预测,2050年电子废物总量将突破12亿吨。这类废物中含有铅、汞和镉等危险化学物质,若缺乏安全处理,极易污染土壤和水源,长此以往将对环境构成严重挑战。与此同时,学界对人工智能与环境的关系认知还存在另一重维度,部分学者强调其在推动环境可持续发展方面的潜在价值,绿色算力由此成为学界探讨技术减排路径的核心议题。对于人工智能与环境这一话题,国内涌现出较多关于二者相关性的量化研究成果,且结论基本一致,均呈现出显著正向效应。具体而言,张秀武和沈洋(2025)基于减污降碳联合减排收益的视角,运用2007-2022年269个地级及以上城市的面板数据,揭示出人工智能可通过替代效应、技术效应与智能决策,提升减污降碳协同效益。与之形成呼应的是,赵雨涵等(2025)基于2011-2021年中国277个地级市的数据,运用门槛效应模型、中介效应模型与空间杜宾模型等方法,实证发现人工智能技术创新对城市碳减排具有积极作用,但该效应随新兴技术应用程度提升呈边际递减趋势。许潇丹和惠宁(2024)的研究则聚焦工业领域,基于2011-2021年中国内地省级面板数据证实,人工智能发展能显著降低工业碳排放强度,且其对工业绿色低碳发展的影响存在区域异质性,即西部地区最强、东部地区最弱。与此同时,部分学者进一步剖析了人工智能助力节能减排的潜在路径机制,其核心略径可归纳为两大方向:一是通过驱动传统产业绿色转型间接减少碳排放,二是直接赋能能源环境行业发展以增强减排效能。前者的大致观点是,生成式人工智能通过“劳动者一劳动资料一劳动对象一要素组合”多层级要素的组合优化,提高传统产业的资源利用率与全要素生产率,从而减少不必要经济活动带来的环境影响,为实现绿色生产力水平提升增加新能量(刘宏伟、马酉儒,2025)。后者则认为,人工智能在可再生能源发展应用领域潜力巨大。Nitin Liladhar Rane(2023)指出,以ChatGPT为代表的大型语言模型在太阳能、风能、生物质能等14个能源领域均有显著应用价值。例如,全球人工智能社会发展研究报告(2025)通过数据分析与建模优化光伏布局,提升风速预测精度(太阳能):支持水库调度管理和河流流量预测,实现发电量最优化(水力发电):助力风机控制、维护排程及风速预测(风能):辅助原料筛选、工艺优化及减排方案制定(生物质能)。此外,针对算力环节的内生性能耗与污染问题,部分学者对其突破路径展开研究,主要为以下三个方面:一是模型绿色升级。在硬件上采用高效能、低功耗的设备,如低功耗处理器、高效能存储器、绿色数据中心等:在软件上优化算法、降低软件复杂度、提高软件运行效率(赵勇,2024)。二是计算资源协同。以我国为例,我国算力资源整体呈现“东部不足、西部过剩”的不均衡局面,且数据中心间协同性不足,“数据中心孤岛”“云孤岛”等现象频频出现(陈晓红等,2023)。加之模型同质化竞争严重,计算内容高度重复,难以实现计算资源的帕累托最优,因此亟需对计算资源进行协调整合(龙海泉等,2024)。三是核能突破。结合产业实践,各大数字巨头将可控核聚变视为解决人工智能耗电问题的终极方案,纷纷开启核能布局,以期通过颠覆性技术突破能源限制(李坤泽,2025)。综上,社会科学界对算力扩张的环境影响存在分歧:部分学者关注其直接产生的能源消耗与生态赤字,另一部分则强调其赋能产业绿色转型的间接减排潜力。增排与减排的具体量级,以及算力的净环境效益难以评估。但从长远来看,随着人工智能驱动核能等新型能源的革新应用以及计算资源的协同优化,未来,算力有望突破能耗与环境的制约,实现真正的可持续发展。(二)棋型幻觉:谬误和创见共存模型幻觉是除算法偏见外,算法研究领域的又一重要话题。与算法偏见不同的是,当下学界对于模型幻觉的探讨尚处于初始阶段,研究潜力巨大。部分学者致力于构建相关概念体系,对模型幻觉展开了概念界定和表征分类的基础性研究。目前,学界对人工智能“幻觉”(Hallucinations)的定义尚未达成广泛共识,不同定义同时存在甚至互相矛盾。“幻觉”原本是神经科学和心理学的概念,SAISDGlobal Report on Artificial Intelligence and Social Development(2025)意指感觉接受器对客观经验不准确的主观再现(林曦,2025)。人工智能领域对这一术语的引入最早可追溯至2000年的计算机视觉研究,指的是一种图像修复与合成应用领域的建设性技术,旨在提高图像分辨率。可见,早期的“幻觉”是一个带有积极意味的技术术语。随着自然语言技术的迭代更新,“幻觉”逐渐发展成为一个负面词汇,通常指模型生成的内容对提供的源内容无意义或不忠实,即模型生成的文本不忠实于信息源或者与现实世界的事实不符(Ziwei Ji等,2024)。对此,Ostergaard和Nielbo(2023)提出了两点关键性质疑:第一,人工智能的“幻觉”隐喻属于术语误用,因为人工智能不具备感官知觉,其认知错误源于数据缺陷和提示工程局限,而非刺激缺失。第二,这种隐喻存在高度污名化效应,将人工智能的负面问题与精神疾病的特定症状相关联,可能破坏精神病学与心理健康领域去污名化的诸多努力。因此,部分学者致力于探索更加准确恰当的替代性术语,用于描述人工智能的这一特性。Negar Maleki等(2024)根据不同场景的模型“幻觉”,构建了不同的“幻觉”概念矩阵。包括虚构(Confabulation);错觉(Delusions);概率性复述(Stochastic Parroting);事实错误(Factual Errors):编造(Fabrication):错误、过失、谬误(Mistakes,.Blunders.False-hoods);草率概括、错误类比、假两难推理(Hasty Generalizations,FalseAnalogy,False Dilemma)等。他提出,确立人工智能幻觉的严谨定义至关重要,有助于提升幻觉研究的聚焦度、精确度、清晰度和连贯性,避免跨学科研究中的潜在混滑和歧义风险。除了概念探索外,部分学者从不同维度出发,对模型幻觉展开了类型学研究。方师师和唐巧盈(2023)从“错误事实”与“错误认知”的双重维度出发,提取出了存在事实错误、逻辑错误、推理错误、编程错误、文本输出、过度拟合、综合问题7大幻觉类别。Yujie Sun等(2024)则下沉归纳出8种一级错误类型和31种二级错误类型,其中一级错误类型与方师师的分类基本一致。在概念体系搭建的基础上,学者们围绕模型幻觉的成因、评估与对抗路径展开多维度研究。例如,刘泽垣(2025)分别从数据层、模型层和应用层对模型幻觉的成因、评估方法与缓解路径进行了较为全面的梳理与分析。其中,数据层的污染、重复、缺失,以及数据标注错误是诱发模型幻觉的源头性因素。模型层的算法运作黑箱特性则进一步加刷了幻觉问题,具体体现在编码解码缺陷、预训练全球人工智能社会发展研究报告(2025)知识偏好、曝光偏差及模型知识更新局限。应用层面下游任务的领域专业化可能导致模型泛化能力下降:模型的同质化趋势(即不同任务采用相似预训练模型)易导致对特定输入过度敏感,且模型固有缺陷会被广泛继承并放大:多模态化处理增加了模型复杂度和幻觉风险:提示工程虽提升了响应灵活性,但也可能导致模型过度依赖提示,其指令微调技术与思维链技术的应用局限也可能进一步深化幻觉。基于此,可进行数据清洗和数据增强构建真实数据集并修正幻觉数据集,以提高数据质量:优化模型初始结构、模型训练与微调过程、模型后处理方法,以减少计算过程中的误差:设计相关提示或者对齐指令,以减少特定任务幻觉的产生。上述类似研究大都基于这样一个共识性前提,即模型幻觉是有害的,但也有部分学者对这一前提表示质疑,开始对模型幻觉的积极意义和价值多面性展开批判性分析。胡泳和王昱吴(2025)提出,人工智能幻觉存在一体两面,机器创造力过于注重新颖性可能会导致产生原创但不准确的回答,而过于注重实用性则可能导致无效的死记硬背的回应。杨雅等(2024)也指出,虽然生成式人工智能存在“一本正经胡说八道”的不准确推理情况,但大模型理解与解释世界的能力依然值得期待,这也是培育大模型想象力的一种过渡阶段,而并非完全将其囿于人类的资源检索库的角色。因此,开发真实可靠的大模型时,如何平衡创造力与真实性是处理幻觉问题的巨大挑战。大模型的幻觉问题具有两面性,一方面,幻觉被视为模型的缺陷,需要通过技术手段予以纾解,不正确或虚构的信息可能导致严重后果,破坏信任和可靠性。但与此同时,幻觉也可以带来创新性和创造性,生成出人意料的、新颗的想法,从而激发设计灵感,协助探索多种可能的解决方案,打破传统思维定式的束缚。因此,评估和利用幻觉现象与缓解幻觉问题同样重要,需要给予均衡的关注。总体来讲,当前的研究工作倾向于减少幻觉,一定程度上忽略了其创造性,在未来的工作中,通过更细致的幻觉分类兼顾事实准确性和知识灵活性具有重要的现实意义(刘泽垣,2025)。综上,模型幻觉尚属充满探索空间的研究蓝海,学界仍处于术语厘清与类型划分的基础性研究阶段,概念谱系与理论架构的搭建远未完成。值得注意的是,当前研究范式正初步显露出从单向有害论向辩证价值论转变的苗头倾向,幻觉Global Report on Artificial Intelligence and Social Development(2025)下的技术缺陷与创新潜能协同共生,并存在持续张力。未来的研究路径需超越单纯的“纾困”逻辑,转而构建能够兼顾事实严谨性与知识创造性的动态平衡机制,发展精细化、场景化的幻觉分类、评估与引导体系,推动可信人工智能发展。(三)数据让渡:便利增益与隐私风险随着生成式人工智能的发展,数据让渡以更为深刻的方式嵌入用户交互过程中。除了依赖已有数据库进行大模型训练外,用户会向交互智能体分享大量数据,这些数据被收集后可能会被继续用于模型训练。这种主动披露的数据让渡超越了“知情同意”制度的范畴,让隐私可以在用户认知模糊的状态下被非自主让渡(孙国烨等,2025)。数据让渡作为人工智能系统运作的底层逻辑,其引发的隐私悖论是近年来学界关注的重要议题。一方面,用户的数据隐私自愿让渡是智能应用程序为其提供个性化、场景化服务的基本前提。人工智能技术本质上天然依赖于海量数据(Yadav Neel,2023)。在万物互联的大数据时代,个人信息数据成为社会发展的重要燃料,个人提交的信息数据越多,基于海量个人信息的大数据计算越准确,个人就能获得更加精细化的私人服务,组织就能形成更加优质化的产出效率(董淑芬、李志祥,2023)。智能应用程序正是基于对海量用户数据的深度挖掘与计算,方能推出高质量的个性化适配服务。通过挖掘用户信息,应用得以勾勒出用户所处的线上线下场景,并通过自动化算法进行场景与需求的最大匹配,为用户实时、实地提供并更新适配服务。因此,隐私让渡是用户获取便利的前提基础,智能应用的数据收集行为已经成为大数据社会正常运行不可缺少的重要基底。以智能监测设备为例,各种具身设备的兴起掀起了“量化自我”的热潮,置身其中的人们佩戴着各式各样的技术装置,通过数据来认识自己。在智能设备的使用过程中,量化自我从多样的情境中形成了“让渡有益”的行为理念,从而将数据监控化用为自我跟踪。受这种数字化生存惯习的影响,量化自我群体的隐私感经历着技术社会的“脱全球人工智能社会发展研究报告(2025)敏”,让渡数据变得习以为常。“后隐私”甚至承诺,“我们每个人的信息被数据公司记录得越多,我们就存在得越多,我们对自己的了解就越多”(俞立根、顾理平,2024)。另一方面,智能应用对数据的挖掘、储存、计算一定程度上又无可避免地构成了对用户数据隐私的侵犯。由于数据具有可完全复制性,隐私让渡造成的主观损失感远远小于物质性存在物让渡,这意味着隐私信息具有比一般物质性存在物更高的可让渡性(董淑芬、李志祥,2023)。在数据采集阶段,人工智能训练数据面临过度采集和窃取滥用风险,用户可能在不知情的情况下被过度收集数据(刘琳璘,2024)。在数据预处理阶段,面对海量异构数据,一般的数据预处理操作难以做到精准高效,易埋下个人信息未彻底脱敏的安全隐患(王梅艺,2024)。在使用阶段,神经卷积模型相较于传统算法模型对于各种数据要素的分析更加深入,能够发掘出海量个人信息中潜藏的信息(刘艳红,2023)。因此,在人工智能运行的各环节,均存在个人知情权、隐私权和数据权益遭受侵犯的风险。KlyD.Martin和Johanna Zimmermann(2024)采用人工智能生态系统视角,提出了一个过程-结果框架,对人工智能技术进行了细致分类,确定了不同类型的人工智能如何影响隐私决策。此外,算法的自动化计算黑箱一定程度上会造成对用户“合成隐私数据”的侵犯。除了“自然隐私”之外,大数据具有构建“合成型隐私”的功能,即通过数据挖掘技术将人们在网络上留存的数字化痕迹进行有规律整合而成的隐私(林爱珺、章梦天,2024)。由于机器学习的内部不可见性,数据收集者无法告知用户尚未确定的数据用途,因为收集者也无法预测其获取的初始信息在后来的环节中如何被若干次加工。因此,用户、商业公司,甚至模型开发者均无法完全洞悉算法内部的计算逻辑,技术人员难以向公众进行逻辑解释,用户也无法理解自身数据是如何被处理与操作的。此外,尽管知情同意原则已经成为对待隐私让渡问题的社会共识,大多数知名企业都出台了自己的隐私规范政策,但是在实践中,数据企业将这种同意Global Report on Artificial Intelligence and Social Development(2025)机制实际异化设置为一种近乎默认的机制,绝大多数用户并不知道自己“同意”就已经构成了“同意”。这种“默示同意”机制或者“选择性拒绝”模式在wb3.0时代很难起到保护个人隐私的作用。一方面,大数据平台及软件开发商提供的知情同意书往往过于复杂,作为用户的隐私主体大多没有时间和精力进行全面而仔细的阅读,这就意味着知情只是一种可能而不是现实。另一方面,大数据平台及软件开发商都实行“同意才可使用”的政策,即如果不同意其隐私政策就不能使用其软件或平台,在这一政策下,大多数人为了获得软件或平台的便利而不得不同意其隐私政策,这就意味着同意只是一种被胁迫的同意(董淑芬、李志祥,2023)。可见,个人用户在强大的算法技术面前处于绝对弱势地位。算法隐蔽层的存在使得平台公司与用户之间存在一条技术与认知鸿沟,用户个人对隐私权利保护没有明确的认知,智能算法技术对于信息的储存与处理规则属于技术机密,知情同意幕后如何操作用户不得而知,对隐私进行了何种侵犯用户更是无法感知。最终在知情同意困境下,用户对于平台条款的同意使用属于“被迫”与“无奈”状态,知情同意原则实际上将用户置于权利被迫让渡的困境中(张涵等,2024)。基于此,部分学者开始探索更加科学的知情同意模式。Gary Burkhardt(2023)等基于自主授权模型(AA)与计划行为理论(TPB),构建了一个植根于自主伦理的知情同意模型,即一种优先考虑用户利益并支持伦理信息管理和营销实践的同意征求模式。综上,随着生成式人工智能的发展,数据让渡逐渐从被动同意转向主动披露。便利增益与隐私风险并存,一方面,用户以隐私让渡换取精准场景化服务,另一方面,智能应用对数据的挖掘、存储与计算又不可避免地构成隐私侵犯。知情同意的实践异化进一步加剧了潜在的隐私侵害。如何确保数据让渡的正当性、自主性、可控性是各界亟需突破的课题。(四)劳动转型:替代冲击与技能重构人工智能技术的迅猛发展正以前所未有的深度和广度重塑全球劳动力市场10全球人工智能社会发展研究报告(2025)格局,引发了各界关于人类劳动价值与未来工作形态的深层思考,劳动替代由此成为近年来人工智能社会科学研究的核心热点。围绕人工智能对劳动市场的影响,学界形成了“创造”与“替代”的两大对立观点。支持创造论的学者认为,人工智能正孵化出一系列新场景、新业态,不仅不会导致大规模失业,反而会创造一批全新的就业机会(易宪容、陈颖颖,2024)。此外,智能设备的使用、维护和培训也需要大量专业人才参与(徐政、吴晓亮,2025)。事实上,当前人工智能在商业领域的应用仍处于相对早期阶段,短期内对就业产生的实质性影响较为有限(Kathryn Bonney等,2024)。联合国的测算也印证了这一点,全球最多只有2.3%的岗位有可能完全自动化(UN,2025)。因此,人工智能取代人类工作的可能性并不大。相反,人工智能将人从重复性、低技能要求的岗位中解放出来,从事创新性、技能密集型、情感交互性的工作,实现了对劳动力资源的重新配置与优化,有助于提高劳动效率,激发个人创造力。支持替代论的学者认为,采用人工智能将导致大规模的劳动替代与结构性失业。高盛的研究数据显示,在人工智能的冲击下,3亿全职岗位面临替代风险,美国约有三分之二的职业可以通过人工智能实现部分自动化(高盛,2023)。胡晶晶和程承坪(2025)则进一步指出,机器天然地会对就业产生替代效应,但替代的范围和程度在技术的不同发展阶段不尽相同。随着人工智能技术由专用向通用跨越,就业替代效应也在不断强化与拓展,可替代的劳动形式由物质劳动延伸至非物质劳动,工作类型由常规认知领域到非常规认知领域。“创造”与“替代”并非均匀分布,而是呈现出显著的技能偏向性(EDC,2025),由此引发的就业极化现象成为学者们密切关注的研究热点。具体表现为:低技能岗位面临取代风险,高技能岗位存在创造机遇,但其创造的数量和速度远不足以弥补被替代的低技能岗位总量,导致整体就业岗位的净减少(孟现玉,2024)。除了岗位的非对称创替之外,劳动者的非对称流动也会对极化效应产生系统性影响。黄旭和董志强(2024)的研究创新性地考虑到了劳动者技能身份的可转变性,他们提出,人工智能对就业岗位的冲击并不是简单的局部静态结果,而是一个复杂的全局动态过程。例如,在人工智能冲击下,中等技能工人有三种潜在的应对之策:一是在现有岗位上经过培训提高劳动生产率,二是下沉转化11SAISDGlobal Report on Artificial Intelligence and Social Development(2025)为低技能工人,三是经过培训成为高技能工人。不同策略将对就业极化与工资极化现象产生差异性影响。这种非对称的劳动市场结构将加剧收入分配的两极分化,推动其持续向高收入人群倾斜。实证结果显示,人工智能应用水平上升1%,会导致劳动收入份额下降0.054个单位。但人力资本水平高、经济发达的地区人工智能对劳动收入份额的降低作用不显著(王丽媛、李繁荣,2024)。与此同时,技术进步正以前所未有的速度压缩着人力资本的“保质期”,随着人工智能技术的快速迭代,个人知识技能更新周期急剧缩短,人力资本的折旧速度持续加快,这将倒逼整个社会进入技术转型的加速期。整体而言,替代效应与创造效应同步发生,劳动市场的总量收缩风险与质量提升机遇并存,呈现出技能导向动态转型的整体趋势。然而,随着人工智能技术从判别式向通用式的跨越演变,劳动市场的技能偏向性导向引发了新的理论争议。当传统自动化风险聚焦程式化体力任务时,生成式人工智能的颠覆性在于威胁认知交互型技能。Molly Kinder等(2024)认为,生成式人工智能的发展标志着与以往“技能偏向”范式的彻底决裂。除非机器人技术取得突破,生成式人工智能不太可能对体力劳动造成威胁,相反,它擅长编程、预测、写作、说服、沟通,具备了替代有一定技能门槛工作的交互特质。这种特性导致自动化风险格局发生逆转,如今大多数面临生成式人工智能替代威胁的行业,正是几年前自动化替代风险排名中垫底的行业。该范式颠覆在职业与技能层面获得双重实证支持。研究表明,软件开发岗位因低具身性需求,71%的专业技能暴露于替代风险:而护理岗位依赖肢体操作与情感支持,仅32.9%的技能可能被自动化(Ryan Stenvick,2024)。安永全球分析显示,数学与编程技能在生成式人工智能威胁暴露指数中高居首位,而主动倾听、学习能力等人际互动与情感理解技能稳居安全区(Gregory Daco,2024)。在人工智能向通用式迈进的过程中,新型技能壁垒得以形成。当高技能门槛的认知型工作沦为替代重灾区时,需复杂社会情感协调与创造性思维的能力反成人类最后的防御堡垒。这宜告“低技能高替代”工业逻辑的终结,标志着人机协作准则向“情感创造”双维度的历史性迁移。综上,人工智能对劳动力市场的重塑已突破“创造替代”的二元框架,呈1
请如实的对该文档进行评分-
-
-
-
-
0 分