《 江南论坛 》欢迎您!   2026-03-05 星期四   加入收藏 | 设为主页 联系电话:0510—80908055
青年观点 首页 >

生成式人工智能时代意识形态工作风险研究

作者:张子怡   文章来源:本站   点击数:40   发布日期:2026-2-13

摘  要  生成式人工智能在给人们生产生活带来极大便利的同时,也给意识形态工作带来了新的风险与挑战。算法技术与意识形态的互塑、资本与算法技术的深度合谋、主体与算法工具的角色颠倒,使党的意识形态领导权、管理权和话语权存在弱化风险。因此,必须紧紧围绕诱发风险的技术、资本和人本三维逻辑,以技术正义把控应用瑕疵、以强制约束遏制资本渗透、以提升素养解除主体危机,实现党的意识形态领导权、管理权、话语权的“实然统一”。

关键词  生成式人工智能;意识形态;领导权;管理权;话语权

党的十八大以来,以习近平同志为核心的党中央高度重视意识形态工作。习近平总书记指出:“必须把意识形态工作的领导权、管理权、话语权牢牢掌握在手中,任何时候都不能旁落,否则就要犯无可挽回的历史性错误。”[1]生成式人工智能的快速发展正深刻重塑着意识形态工作生态,习近平总书记强调:“面对生成式人工智能等新技术的涌现,要统筹好发展和安全。”[2]党的二十届四中全会强调,“加强舆论引导,有效防范化解意识形态风险”。[3]在此背景下,以党的意识形态领导权、管理权和话语权为分析框架,透视技术、资本、人本三维逻辑下意识形态工作的潜在风险及其表征,并据此探寻因应之策,具有重要的理论和现实意义。

一、生成式人工智能时代意识形态风险的肇因透视

生成式人工智能作为人的意识活动和生命活动在技术上的“人为性”统一,本质上是人类智能的延伸,是主体创造性的生动体现。然而,该技术在嵌入意识形态生产与传播的过程中,在技术逻辑、资本逻辑和人本逻辑三重影响下产生了应用风险。

(一)技术逻辑:算法技术与意识形态的互塑

生成式人工智能在广泛应用中,无可避免地要与现实社会中的阶级关系、政治权力和价值观念频繁接触,使其日渐僭越本质功能而深入意识形态领域,并与意识形态交织纠缠、耦合互动,最终陷入“中立”与“偏向”的二律背反,给意识形态工作带来了新的风险和挑战。

首先,源于开发者意识形态立场的潜在渗透。生成式人工智能展现与传播的文本、图像和视频等外显性内容,主要依托算力、数据、算法三大核心要素。这三大核心要素是人为设计开发的产物。“每一种技术架构、每一行代码、每一个界面,都代表着选择,都意味着判断,都承载着价值。”[4]因此,各生成环节都蕴含着设计者的价值判断、政治立场等内隐性内容,进而可能演绎成带有倾向的意识形态再生产工具。

其次,源于数据库意识形态倾向的算法偏见。生成式人工智能所体现出来的“创造性”和“人性”是海量数据“喂养”出来的。因而,生成式人工智能的意识形态倾向很大程度上受到其所依附的数据库规训。无论是文字生成式人工智能ChatGPT,还是视频生成式人工智能Sora,它们的领先地位不仅是因为在时间顺序上成为了生成式人工智能行业的先行者,而且基于超强的数据更新和技术换代能力在空间上也成为了主导者。“智能鸿沟”在国与国之间横亘,使得生成式人工智能“政治无涉”的假象背后,蕴含着天然的政治意图和政治偏见,存在着政治与技术的紧密勾连。

最后,源于反馈端意识形态意图的智能滤除。生成式人工智能宣称精准适配用户、优化生成内容的反馈端,其实也承载着相关利益者的好恶,并不是一个纯粹自我管理和自我调适的计算过程。一方面,这一过程需要人工设置程序,还需要借助数据库“微调”,因而也具有意识形态“偏见”。另一方面,生成式人工智能在“过滤气泡”的裹挟下会智能滤除与自身数据基因产生“排异反应”的反馈数据,而同已有数据基因相契合的反馈数据则会在深度学习中得到固化。

(二)资本逻辑:资本与算法技术的深度合谋

马克思指出,机器所带来的矛盾和对抗“不是从机器本身产生的,而是从机器的资本主义应用产生的。”[5]资本逻辑是一种以追逐最大化利润为中心的单向度逻辑,在利益驱动和资本控制下,极易削弱生成式人工智能的技术正义性。

从资本角度看,算法技术跨域时空的传播力、渗透社会各领域的影响力及其效用至上的理念无不刺激着资本主义的暴利因子。以丹尼尔·贝尔为代表的“非意识形态论”以及以法兰克福学派为代表的“技术统治论”,这两种关于科学技术与意识形态关系的观点虽截然不同却殊途同归,即落入“全盘否定”或“全盘肯定”的片面性窠臼,本质上都未揭示暗藏于背后的资本逻辑。资本发财致富、吮吸剩余价值的“生活本能”及其权力的征服逻辑使生成式人工智能在运用过程中附设意识形态及统治功能,成为带有意识形态色彩的异化力量。[6-7]

从运作机制看,资本巧妙地隐藏于技术的外衣之下,作为资本人格化的资本家则打着缩短更新周期、加快创新节奏的旗号,将生成式人工智能并入资本运作轨道。以工具理性覆盖价值理性,将流量与效益塑造为技术运行的底层逻辑,这种情况极有可能使生成式技术沦为替资本家服务的利益工具。以造福人类为最终目的的智能技术极有可能在营利机制和成瘾机制的加持下,演变为一种具有支配性的“技术利维坦”。它所营造的沉浸式“数字乌托邦”,使公众在无形中接受并内化由数字资本所助推的消费主义与娱乐至上等价值取向。

(三)人本逻辑:主体与算法工具的角色颠倒

人、人本,是意识形态的核心。ChatGPT、DeepSeek等生成式人工智能在一定程度上促进了人的解放,但就现实情况而言,人们也正在遭受那些“异己的力量威慑和驾驭”,[8]易造成人的行为失范、价值失序和心灵失落。

首先,生成式人工智能构建的新型人机交往模式,将人际互动日益置于一种“拟态环境”之中。相比于人与人之间的现实交流,该技术能让交往更便捷、更高效,让“人类身体的碳基伦理和基于神经网络算法的硅基伦理可以在一个共生的层面上结合起来”。[9]但这种高度仿真的虚拟交往在强化技术沉浸感的同时,也潜在地加剧了现实世界中人与人之间的情感疏离与心灵隔阂。在这一过程中,主体性面临异化的风险,即个体易于在现实与虚拟的边界模糊中陷入自我迷失、行为沉溺与伦理越界,从而在一定程度上削弱社会凝聚与价值共识的形成基础。

其次,生成式人工智能的技术伦理缺陷,易使人成为数字世界“伦理失序的受害者”。该技术存在的技术漏洞在制度缺席和道德失效的情况下会无可避免地引发伦理危机。例如,隐私侵犯、算法歧视、数据泄露等,特别是篡改数据和注入虚假信息的交互风险。这种风险对主流意识形态的侵害十分明显。在被篡改的错误指令控制下,生成式人工智能会创建虚假信息、发布恶意内容,通过元宇宙的放大效应操纵、规训人的思想观念,干扰人们对主流意识形态的认知和判断。

最后,人在与生成式人工智能模型的双向互驯过程中堕落为“技术的附庸”。生成式技术在人类的驯化下会习得人类行为和语言表达,而人类也会在生成式模型的“类人性”掩盖下对生成式人工智能产生极大信赖。久而久之,易造就“弱化”的人、塑造“懒人”思维。人们愈发信赖生成式模型给出的回答和结论,对生成式机器产生“工具崇拜”,而人类社会的主流价值观和精神信仰则逐渐消弭,取而代之的是非人类的智能权威,人因此堕落为“技术的附庸”。

二、生成式人工智能时代意识形态风险的多重症候

“科技从来没有像今天这样深刻影响着国家前途命运,从来没有像今天这样深刻影响着人民生活福祉。”[10]生成式人工智能的迅猛发展在重塑信息传播格局、提升社会运行效率的同时,也因其技术特性与应用模式,对党的意识形态工作带来了多维度、深层次的风险挑战。

(一)党的意识形态领导权弱化风险:技术遮蔽—政治博弈—价值依附

获取意识形态领导权的本质过程在于理论的科学、斗争的自觉和非强制认同,生成式人工智能对此的挑战不容忽视。

其一,错误价值理念和非主流意识形态在技术遮蔽下肆意蔓延,可能对主流价值体系构成侵蚀与挑战。生成式技术仍存在真伪不辨、算法黑箱等缺陷,这些潜在的技术风险极有可能对党传递的正确价值观和科学理论进行曲解,还能利用拟人化风格、修辞化表达修饰其认知形塑的隐形暴力,让社会成员在毫无防备的情况下接受错误的价值观和非科学的论断,并在频繁使用中加以固化,形成偏差认知,不利于党的意识形态领导权的强化。

其二,生成式人工智能在政治博弈框架下潜藏着被转化为意识形态载体的风险,通过内容生成的可操纵性,消解公众对非主流意识形态的认知防御机制,从而在意识形态竞争中形成非对称渗透优势。基于社会制度的根本差异,西方国家可能将生成式人工智能塑造为承载资本主义意识形态的技术载体,使其演化为具有特定政治倾向的符号与意义系统,从而以隐蔽方式重构意识形态霸权,实现所谓“软性”的文化与价值输出。

其三,生成式人工智能在工具理性的支配下容易丧失价值理性,削弱社会公众对自身的价值认同。数字时代,用户也可能成为剩余价值的无形生产者。例如,个人数据成为数字资本积累的“原料”,自身则被转化为数字资本家追逐剩余价值的工具,陷入“算法依附”而难以获得公平回报;同时,还要承担隐私侵犯、人格受损等诸多后果。在生成式人工智能迅速发展的条件下,更为隐蔽的数据剥削和日益加剧的数字排斥,有可能进一步削弱社会成员对自身主体性的认同,甚至引发“人被机器取代”等普遍焦虑。如何在生成式人工智能发展中进一步凸显“技术向善”的社会主义导向,成为巩固党的意识形态领导权的重要内容。

(二)党的意识形态管理权弱化风险:算法扩张—利益诱惑—能力式微

党的意识形态管理权,主要是管理主体、管理对象、管理范围之间的张力与关系问题。三者的关系在技术、资本、人本的逻辑驱动下发生转变,对党的意识形态管理效度和力度产生消极影响。

其一,生成式人工智能时代无孔不入的算法应用使管理范围急剧扩大,极易导致意识形态管理效度的减弱。这一技术令信息生产效率迅猛提升,信息数量也随着应用主体和范围的扩大呈爆炸式增长态势,大大拓宽了意识形态管理的范围。此外,智媒传播造成了意识形态生产、传播、作用的多节点以及内容、时空、范畴的高度分化,创生了更为复杂的多元关系。匿名化与开放性的环境特点也大幅增加了信息扩散轨迹的不确定性,一旦某个节点发生极端联结或有引发舆情的征兆,有关管理部门进行实时追踪和及时制止的难度将大幅增加,管理效度也将大打折扣。

其二,资本对生成式人工智能的操控因利益诱惑而日趋强化,增加意识形态工作的管理对象复杂性和管理难度。生成式人工智能的强共情能力锻造了极具煽动性的叙事能力,为资本操弄公众情绪提供了技术依托。在此情况下,社会成员可能不自觉地成为丧失理性的“乌合之众”,潜在威胁国家意识形态安全和社会稳定;也可能在利诱下主动沦为“资本的附庸”,利用生成式模型的深度合成技术产生网络诈骗等违法行为,侵犯社会成员的合法权益,将意识形态风险扩散至法治领域,增加管理难度。

其三,管理主体能力有待提升,易导致意识形态管理力度下降。人们在利用生成式人工智能达到自己某种目的的同时,也面临该技术对人的主体性的冲击,这一过程无疑让意识形态管理风险全域化、动态化、复杂化,导致党和政府的“有形之手”及其有限的资源更加难以对抗海量真假难辨的数据信息、难以对抗生成式人工智能条件下虚拟化的人。也正因为生成式人工智能只是人的智力的高阶延展工具,当它听从人的指令生产错误信息、危害信息、虚假信息时,管理主体很难对它进行问责。意识形态工作中更为棘手和复杂的管理难题,对管理主体的能力提升提出了更高的要求,若是管理主体处理复杂问题的能力与水平停滞不前,则容易造成意识形态管理力度下降的困境。

(三)党的意识形态话语权弱化风险:算法鸿沟—技术打压—思想驯顺

生成式人工智能时代,技术逻辑导致党的意识形态话语传播受限,资本逻辑引发党的意识形态话语生产受困,阻碍了社会成员对主流意识形态的话语认同,并在人本逻辑的作用下加剧了这种负面影响。

其一,“算法鸿沟”制约党的意识形态话语的传播效力。生成式人工智能进一步开放了话语平台和话语渠道,然而,话语权利“去中心化”的背后是话语权威的“再中心化”。技术统治支配了话语天平,优势平台在技术加持下成为话语传播的实际主导者,通过更高效率、更广覆盖的议题设置优势,在持续输出中控制受众“想什么”,干预受众“怎么想”,对党统摄时政热点和意识形态等方面的传播权力及结构造成冲击。

其二,“技术打压”影响党的意识形态话语生产自主性。当今时代的大国安全博弈“不单是技术博弈,还是理念博弈、话语权博弈”。[11]以美国为首的西方资本主义国家往往奉行“打压式”的技术民族主义,将技术发展意识形态化。在生成式人工智能技术的发展过程中,西方国家试图依托ChatGPT与Sora等技术的先发优势与市场占有率,来挤压我国以中文为核心自主研发的文心一言、DeepSeek等生成式模型的生存与发展空间,同时还采取各种手段对我国智能技术的创新进行封锁与打压。在此背景下,若本土生成式人工智能技术发展相对滞后,则可能在国际舆论场中面临话语生产自主性大幅降低的挑战。

其三,“思想驯顺”倾向削弱党的意识形态话语认同基础。“我们习惯于抱住知识的碎片而丧失了对知识后面那智慧的感悟。”[12]从认知心理学的角度看,人类在接收信息时,会不自觉地运用已有的认知框架和话语模式进行解读与判断。当生成式人工智能以一种自然、流畅且符合人们认知习惯的话语呈现信息时,社会成员很容易忽略其中可能存在的意识形态渗透。例如,生成式人工智能在回答关于历史事件、社会现象的问题时,可能会巧妙地融入某些特定的价值观和政治立场,通过对话语的筛选、编排和解读,引导用户形成与之相符的认知。由于这种引导过程隐蔽且渐进,社会成员往往不自觉接受了这些话语并认同其所传达的意识形态。这就极易致使社会成员偏离主流价值观、与党的意识形态脱节而不自知,削弱党的意识形态话语认同基础。

三、生成式人工智能时代意识形态风险的治理对策

生成式人工智能时代,党的意识形态风险兼具传统互联网时代的“旧病理”和新情境下的“新困境”,“这个战场上,我们能否顶得住、打得赢,直接关系我国意识形态安全和政权安全”。[13]对此,必须紧紧围绕技术、资本和人本三大风险源头制定科学、全面、有效的治理对策。

(一)以技术正义解决应用瑕疵

基于技术逻辑引发的意识形态风险很大程度上仍需从技术角度出发加以应对。因此,强化技术治理是应对生成式人工智能时代潜在意识形态风险的起点。

首先,在技术研发层面,要提升生成式人工智能模型中国研发的核心竞争力。“核心技术受制于人是我们最大的隐患。”[14]要加大对生成式人工智能领域的投入,通过自主创新攻克核心技术难题,以技术平权化解数据偏见、减少算法歧视、缩小智能鸿沟,筑牢社会主义意识形态数据库的技术根基。要升级防范技术,打造生成式人工智能应用过程中的风险研判、预警、监管等全方位、防御型技术链条,降低意识形态风险发生的概率。要积极争取“技术共治”的共同体模式,力图在各国达成共识的基础上规避技术强国的科技围截,真正促进技术“求真”。其次,在技术运用层面,要强化技术规训。技术的力量并不单纯由技术本身决定,也由技术运用过程中的正向规制所塑造。要在数据采集、储存、标注等方面努力做到全面、安全、公平,强化意识形态风险治理的前驱性。要在算法推荐的程序设置中前置并加大主流意识形态和核心价值观的权重赋值,努力实现算法决策透明化,让算法歧视无处遁形。要跳出算力困局,为储存、生成、推送极具中国特色、满足人民需要的社会主义意识形态内容提供算力加持。最后,在技术伦理层面,要强化开发人员和参与主体的责任意识和伦理意识。要适应生成式人工智能新技术发展的需要,及时更新和改进科技伦理治理体系,定期对研发人员、运营主体、监管主体等进行伦理审查。要持续加强对开发人员和参与主体的思想政治教育和意识形态安全培训,强化其伦理意识与社会责任。要引导设计者树立伦理意识和道德自觉,在技术开发和算法设计过程中秉持理性、客观、公正,确保技术应用的政治方向、价值取向和舆论导向与党的意识形态指向同频共振。

(二)以强制约束遏制资本渗透

“当今世界,意识形态领域看不见硝烟的战争无处不在,政治领域没有枪炮的较量一直未停。”[15]必须善于利用法律理性和制度刚性进行“硬治理”,为资本设置“高压线”。

首先,以法律法规规制技术,确保生成式人工智能的应用在法治轨道上运行。目前,《互联网信息服务算法推荐管理规定》等相关法律法规陆续出台,初步构建了人工智能时代维护意识形态安全的法律法规体系。从《生成式人工智能服务管理暂行办法》到《网络安全技术生成式人工智能服务安全基本要求(征求意见稿)》的接续探索,表明党和政府正积极找寻生成式人工智能开发和应用的规范化、法治化方案。但也必须注意,相关法律制度仍过于粗略和模糊,关乎意识形态风险防治的专门性法律仍处于“真空”状态,难以满足现时的治理需求。因此,亟须围绕生成式人工智能与党的意识形态工作的现存矛盾与张力,出台与中国国情相匹配、与实际需要相符合的有关法律体系。其次,以制度体系规约技术,保障生成式人工智能时代意识形态风险治理的有效落实。要坚持马克思主义在意识形态领域指导地位的根本制度,深刻领悟“两个确立”的决定性意义,坚决做到“两个维护”。要全面落实党委(党组)意识形态工作责任制,坚持党管意识形态原则,从讲政治的高度以责促行、以责问效,确保各级党委(党组)及广大民众在关键时刻站得出、顶得住、打得赢。最后,要增强预警机制、完善监管机制、巩固评价机制,通过筛查、识别、分类等过程,分阶段、分等级、分类别审视生成式人工智能诱发的意识形态风险。要推动“重点把关”向“全链监管”转变,以适应生成式人工智能时代意识形态风险的全域性、渗透性等特点。要注重对智能科技企业的制度监管,实现党的意识形态工作提效和经济效益提升双向互促。

(三)以素养提升解除主体危机

生成式人工智能引发的主体危机本质上是颠覆“以人为本”的信仰危机,必须以“人本”来消弭技术的错位和主客的颠倒,使主体在使用生成式人工智能技术为自己提供便利与服务时能够做到思想自醒、行动自觉。

首先,提升公众智能素养。要普及生成式人工智能的运行原理、意识形态属性和发展前景,增进社会成员对该技术运行规律、推荐意图、抓取逻辑的理性认知,揭开其复杂数理模型和代码符号背后的“神秘面纱”,树立以物为用的应用原则,增强社会成员的智能依赖抵抗力、意识形态风险感知力、信息优劣判断力,以价值理性把控工具理性,培育与技术发展同步和符合时代要求的“数字公民”。其次,提高公众道德素养。技术层面的治理路径框定了智能回答的安全边界,但仍有别有用心之人刻意避开算法程序设置的敏感词,生产不良信息和低俗内容,污染网络净土;法律和制度层面的治理路径则更注重对违法行为发生的“后果处理”,拦不住一些社会成员利欲熏心,甘当资本剥削的对象,生产低级趣味的娱乐信息攫取财富。因此,要明确道德边界,引导社会成员“合理自利”和“积极利他”,以个人自律和行为自觉祛除生成式人工智能不当运用的利益诱惑。最后,重视公众价值观建设。社会主义核心价值观对社会共识的凝聚和社会思潮的引领,是润物细无声式的,能够在“现实频现+算法推送+媒体引领”的多维拟态环境下渗入大众心中,与人们的情感和认知相链接,画出最大“同心圆”。要以更加强大的软实力筑牢主流价值观的认同根基,“用主流价值导向驾驭‘算法’,全面提高舆论引导能力”,[16]增强社会成员抵制错误价值观和不良意识形态的敏锐度、警觉性,夯实主流价值观建设的根基。

参考文献:

[1][14]习近平.论党的宣传思想工作[M].北京:中央文献出版社,2020:21,197.

[2]习近平.加快建设文化强国[J].求是,2025(08):4-8.

[3]中共二十届四中全会在京举行[N].人民日报,2025-10-24(01).

[4]用主流价值纾解“算法焦虑”——构建健康活跃的新媒体内容生态[N].人民日报,2018-06-20(05).

[5][6]马克思恩格斯文集(第五卷)[M].北京:人民出版社,2009:508,269.

[7]王启立.试论人工智能的三重意识形态属性[J].天中学刊,2024,39(02):39-46.

[8]马克思恩格斯选集(第一卷)[M].北京:人民出版社,2012:169.

[9]蓝江.生成式人工智能与人文社会科学的历史使命——从ChatGPT智能革命谈起[J].思想理论教育,2023(04):12-18.

[10]努力成为世界主要科学中心和创新高地[N].人民日报:2021-03-16(01).

[11][13]习近平关于网络强国论述摘编[M].北京:中央文献出版社,2021:160,51.

[12]贾英健.虚拟生产论[M].北京:人民出版社,2011:271.

[15]习近平关于防范风险挑战、应对突发事件论述摘编[M].北京:中央文献出版社,2020:31.

[16]习近平谈治国理政(第五卷)[M].北京:外文出版社,2020:318.

(作者系上海交通大学马克思主义学院博士研究生)

【责任编辑:王宗君】

社科

最新期刊

第二期

江南论坛期刊2026年

在线预览

电话:0510—80908055  0510-80908053   邮编:214000   地址:无锡市滨湖区雪浪街道南象山路2号
备案号:苏ICP备20019952号-2 推荐使用IE9及以上浏览器 技术支持:无锡跨度数据科技有限公司  0510-85749979