AI推动认知博弈变局
2025-05-06 16:09
有海外调查机构统计数据称,2023年5月至12月期间,生成虚假文章的网站数增长1000%以上,内容涉及15种语言。AI技术正驱动认知博弈进入辨别真伪更难、操作门槛更低、传播效率更高的新阶段
在数据采集、内容生产与渠道分发等环节,AI深度介入认知博弈,形成了系统性、隐蔽性更强的价值渗透模式,越来越有可能对社会价值体系形成多维冲击
近日,韩国下届总统热门人选、共同民主党前党首李在明竞选团队接到举报称,有人制作并传播李在明辱骂其妻子金惠景的AI深度伪造视频。该伪造视频显示,金惠景接受调查人员问话后回家,遭李在明辱骂。4月16日,李在明竞选团队对持续传播相关视频的十余名博主提起诉讼。
事件反映出AI时代信息生产与传播的方式发生了根本性变化,暴露出AI深度介入认知领域的现实风险。
认知博弈本质是通过影响目标对象的思想认知来改变其行为模式,达到“不战而屈人之兵”的制胜效果。当前,大数据、生成式人工智能、推荐算法等技术广泛应用,使传统认知博弈方式发生改变:AI通过数据增强重构信息环境,影响公众对事实的认知基础;生成式人工智能技术能以低成本批量制造文本及高仿真音视频,消解真实叙事权威;个性化推荐算法则构建起“信息茧房”,在潜移默化中分化社会共识,让舆论场中的信息内容真假更难分辨……
经济合作与发展组织(OECD)的数据显示,2024年的AI风险事件总数比2022年增加了约21.8倍,并呈快速增长态势。
受访专家认为,AI时代,需在技术防御、人才储备、法律规制、国际协同等方面构建系统性治理框架,筑牢智能时代认知博弈的安全防线。
AI推动认知博弈进入新阶段
《孙子兵法》中“上兵伐谋”“攻心为上”的智慧,正在人工智能时代演绎出新形态。
《重庆邮电大学学报(社会科学版)》主编代金平认为,AI会给人们营造一个被精心设计的信息环境,推动其认知改变,发生从不相信到相信、从不接受到接受、从不认同到认同的认知质变。
有海外调查机构统计数据称,2023年5月至12月期间,生成虚假文章的网站数增长1000%以上,内容涉及15种语言。
AI技术正驱动认知博弈进入辨别真伪更难、操作门槛更低、传播效率更高的新阶段。
辨别真伪更难。AI的自我学习和优化能力,使虚假信息传播呈现智能化、定制化特征,让信息真伪判别难度更高。
2022年,一段伪造的乌克兰总统“呼吁士兵投降”的AI合成视频在社交媒体上广泛流传。视频中相关人物样貌神情几乎与真人无异,让不少网民信以为真。
受访者表示,与传统造假视频相比,AI深度伪造内容可以动态模仿人类的口吻、语气、行为,可信度更高、欺骗性更强。
此外,AI多模态能力,支持从多个角度、多种形式印证同一观点,加剧了伪造信息的隐蔽性。
2024年珠海航展开幕前夕,海外社交媒体平台上出现一则“俄罗斯试飞员在驾驶苏-57的过程中突然改道直飞日本北海道函馆机场,并向日方寻求庇护”的推文。推文附图中有疑似日本广播协会(NHK)的新闻节目截图,战斗机旁边的油罐车上还有函馆空港的字样,后被印证为AI伪造内容。
中国社会科学院大学马克思主义学院副教授向征认为,多模态摆脱了文字呈现形式的单一性,多种生成内容可以相互印证,更容易取得受众信任。据统计,中国互联网联合辟谣平台近一年来公布的近300条谣言中,有87%的谣言包含具体地点,21%附有数据表格,其逼真程度远超传统谣言。
操作门槛更低。AI技术的广泛应用,使过去需要国家力量发动的舆论战、认知战,演变成“一台电脑+一个念头”就能实现的低成本对抗。
人工智能企业Anthropic开发团队4月23日发布的报告披露,某营利组织在X和Facebook上创建了超过100个虚假账号,伪装成真人成功与数万名真实用户互动,在没有人为干预的前提下使用多种语言引导舆论,传播政治偏见。
受访者介绍,AI将复杂的博弈手段简化为“输入指令—输出结果”的流水线操作,使用者无需掌握运作逻辑,只需指挥引导AI输出内容,即可发动大规模跨境舆论攻击。
代金平说,随着互联网、大数据、人工智能等技术快速发展,认知博弈的参与主体已经呈现出自下而上、开放式的“大集市”模式,非国家行为主体、网络自媒体甚至个人都可能加入认知博弈。
传播效率更高。北京大学信息技术高等研究院AIGC实验室研究员张伟、代金平等表示,生成式AI的指数级传播能力,可短时间内引发全球受众对特定话题的关注和讨论。
有统计称,2022年俄乌冲突爆发当日,海外社交平台上反俄账号数量激增,带有“支持乌克兰”标签的推文达到了每小时3.8万条。此后一周,渲染恐俄情绪的推文达到了350万条,其中八成来自机器人账号,引发大范围关注。
一项海外研究显示,AI生成的虚假图片在社交媒体上的传播速度是真实内容的6倍。
虚假信息快速传播已显现出破坏性连锁反应。2023年5月,一张AI生成的“五角大楼附近爆炸”图片在社交网络上热传,尽管30分钟后被证伪,但标普500指数和道琼斯工业指数仍出现断崖式下跌。
受访专家认为,AI通过“感知、预警、判断、执行、反馈”的闭环链条,能形成高效及时的互动机制,切中受众痛点,使信息传播更具影响力。
▲智能聊天机器人 ChatGPT 网站页面(2023 年 2 月 13 日摄) 新华社 / 路透
全链条深度介入信息传播
在数据采集、内容生产与渠道分发等环节,AI深度介入认知博弈,形成了系统性、隐蔽性更强的价值渗透模式,越来越有可能对社会价值体系形成多维冲击。
信息采集阶段,数据污染动摇事实基础。受访者介绍,看似“技术中立”的生成式AI背后是基于人类生成文本语料和手动调整的机器学习过程。运用数据增强、爬虫抓取等技术手段,被投喂带有特定倾向语料库的AI大模型可能生成误导性信息,影响公众对事实的认知基础。
有学者曾在社交平台发布消息称,当其问及ChatGPT“一个人是否应该遭受酷刑”时,AI回答为:“如果他们来自朝鲜、叙利亚或伊朗,答案是肯定的。”
“这类AI大模型表现出的‘西方中心主义’源自本就存在偏见性的原始训练语料。”清华大学新闻与传播学院教授史安斌认为,数据驱动的机器在自我学习迭代过程中会复刻、放大或强化潜在的政治和文化偏见。
数据显示,在ChatGPT的训练数据中,中文语料比重不足千分之一,英文语料占比超过92.6%。
受访专家认为,如果用户长期依赖具有预设立场的AI大模型,其认知可能被误导,做出错误价值判断。
内容生成阶段,算法黑箱存在失控风险。受访者认为,传统内容生成依赖于明确的价值判断、可追溯的编辑流程和人工审核机制,而AI则通过复杂的神经网络运算,在数据训练和输出过程中形成难以解析的“算法黑箱”,使内容生产面临价值不确定性。
例如,当记者在某AI助手中询问有关领域针对AI的监管应对进展时,AI助手给出的回答与真实情况不完全相符。
“由于AI模型的非线性映射关系,在内容生成过程中,训练数据中的隐性偏见可能转化为输出内容的倾向性,但具体触发机制无法指向性溯源。”张伟说,这种特性使内容输出可能基于概率计算而非价值判断,存在有违公序良俗等不可控风险。
传播分发阶段,推荐算法强化信息茧房。业内人士认为,推荐算法基于用户行为数据进行内容匹配,通过协同过滤、内容相似度计算等技术形成“信息回音壁”。用户长期接受同质化信息投喂,易丧失对多元信息的感知能力,困于日益坚固的“信息茧房”之中。
2023年,一家主流媒体的调查数据显示,1501名受访者中有62.2%的受访者感觉到“大数据+算法”的精准推送方式,让自己陷入了“信息茧房”。
这种基于用户画像的精准分发有可能加剧社会群体的割裂。国际上,就有极端组织曾通过社交网络、可视化设备、网络直播和转播等平台投放宣传品,传播极端主义政治理念,影响到地区局势的稳定。
“生成式AI持续、定向、不断地输出并传播包含特定价值取向的内容,将影响受众对社会道德、伦理规范、价值理想等方面的认知和理解,进而改变其行为准则和价值追求。”代金平说。
多措并举破局认知博弈
面对AI引发的可能的安全挑战,我国应在技术突破、人才储备和监管协作等方面多措并举,充分发挥自身优势守牢安全阵地,在认知博弈中占据有利地位。
确保AI技术好用可靠。AI认知博弈的本质是算力、算法与数据的综合角力,这些要素是国家AI技术硬实力的体现。受访专家表示,AI模型越先进、使用越广泛的一方,越具备更强大的认知塑造能力,从而可能使全球认知环境向有利于自己的方向转变。
2025年初,我国AI企业深度求索自主研发的大语言模型DeepSeek颠覆了国际社会对AI研发“高投入、长周期”的固有认知,打破了美国对AI话语权的垄断。数据显示,2025年2月,DeepSeek以5.25亿次的月访问量超越ChatGPT的5亿次,成为全球增长最快的AI工具,凸显出其在全球AI工具市场中的强劲增长势头。
当前,我国在人工智能基础理论、关键核心技术等方面仍存弱项,下一步,要尽快补齐短板。
一家主流媒体机构技术局负责人介绍,该机构自主研发的传媒行业大模型,可自动感知当前的精品内容,用正确价值导向驾驭算法。
“持续不断优化完善算法技术,是媒体的职责所在,也是媒体融合的实际需求。”他认为,当前,主流媒体算法在数据资源数量和技术发展水平等方面有较大提升空间。应尽可能做大内容资源和用户数据,持续提高技术自主创新能力,使媒体算法技术水平具备强大的竞争力。
产学研结合培养AI复合型人才。在认知博弈中,人才是争夺话语权的核心资源。多位受访专家表示,应集结政府部门、科创企业、专业院校等多方力量,着力培养具备技能水平和国际视野的AI领域人才,构建“既懂技术,又善传播”的复合型人才培养体系,为认知博弈提供智力支撑。
张伟表示,要鼓励企业作为生成式AI大模型第一梯队主力军进行人才培养的前沿技术探索和场景化应用研究。如阿里云的“云工开物”计划与南京大学签署全面校企合作协议,通过跨学科的课程体系建设和AI资源支持,培养大批交叉复合型拔尖创新人才。
不同于局限在算法优化和模型训练的传统AI人才培养,认知博弈的特殊性要求从业人员必须理解信息传播的内在规律。受访者表示,在利用AI构建国际传播格局的进程中,人才需要突破学科壁垒,了解掌握传播学、艺术学、心理学等专业知识,推动AI内容生产。
监管协作遏制AI滥用风险。当前,虚假信息的传播速度远超人工核查能力,需尽快建立起一套全方位、立体化、自动化的“认知免疫系统”。
在识别AI虚构信息方面,制度层已作出有益探索。3月7日,国家互联网信息办公室等四部门联合发布《人工智能生成合成内容标识办法》,要求给所有AI生成合成内容刻上“身份标识”。这一规定不仅为行业发展划定了红线,也为用户提供了辨别AI内容的基础依据,从源头上提升了AI治理效率。
“当前推行的《生成式人工智能服务管理暂行办法》提出包容审慎和分类分级的监管原则,但配套安全规范和实施细则仍需尽快完善。”西安交通大学法学院副教授王新雷建议,要进一步加大网络生态治理,完善更加具体有效的规范措施。王新雷以欧盟《人工智能法案》为例,认为其中针对高风险人工智能系统所构建的涵盖事前、事中和事后的全生命周期监管体系,可以作为我国进一步制定技术规范与监管框架的参考。
此外,在国际协作方面,受访者表示,AI认知博弈的跨国性特征要求国际社会必须超越零和博弈思维,通过协作建立统一的AI治理框架。这不仅关乎技术伦理,更是中国争取话语权的战略机遇。
王新雷说,我国应坚持做全球人工智能治理领域的积极推动者、参与者和贡献者,“要在倡议的基础上,积极推动国际协作,构建人工智能治理的多边平台,推动国际社会加强对AI风险和滥用的法律治理。”(文 |《瞭望》新闻周刊记者 张翊飞)
凡注明来源重庆日报的作品,版权均属重庆日报所有,未经授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:重庆日报网”。违反上述声明者,本网将追究其相关法律责任。
除来源署名为重庆日报稿件外,其他所转载内容之原创性、真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考并自行核实。