编者按
4月11日上午,四川省人工智能学院揭牌成立。近年来,人工智能各种应用场景层出不穷。人工智能是引领未来的战略性技术,是新一轮科技革命和产业变革的核心驱动力,是发展新质生产力的主要阵地之一。
本周起,《锦观智库》推出“人工智能+”系列访谈,助力读者认识人工智能,为人工智能应用支招。本期,我们采访雨前顾问产业研究总监许鑫,从理顺现在与未来、可用与好用、发展与安全、硬件与软件四组关系的视角,帮助大家认识人工智能。
现在与未来:人工智能引领新一轮科技革命
锦观智库:近年来,无论是学界还是业界,都对人工智能抱有极大的期望和兴趣。人工智能是什么,将如何影响人类未来?
许鑫:人工智能概念较宽泛,一般用于指代研究或开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的技术科学,其核心目标是让机器执行通常需要人类智能才能完成的复杂任务,如理解语言、识别模式、解决问题等。人工智能产业,是指人工智能研究和应用所涉及的软硬件产品开发和生产、系统应用、集成服务等核心产业,以及人工智能技术在民生服务、社会治理、经济发展等领域融合应用带动的相关产业。
从发展阶段来看,人工智能经历了两起两落。当前,人工智能正处于其发展史上的第三次浪潮,此次浪潮起源于2012年,一种名为AlexNet的卷积神经网络(CNN)获得ImageNet竞赛第一名,且准确率大幅领先于第二名,这一事件被视为深度学习和人工智能领域的一个重要转折点。随着深度学习技术不断突破,诞生了一批“AI+场景应用”的专属模型,极大地改变了我们的生活。
2022年ChatGPT的出现,掀起了新一轮人工智能发展热潮,展示了通过大规模深度学习模型和大量数据训练,可以实现接近人类水平的语言理解和生成能力,开启了发展新范式,大模型将有望“一键解决”海量开放式任务。2024年Sora的出现,标志着人工智能在模拟复杂场景方面迈出了重要一步,“世界模型”“世界模拟器”是Sora的重要标签,它证明了机器可以通过“投喂数据”来模拟和推断出物理世界的规则。
科学家们眼中的Sora,不是为了给我们生成一部电影,而是在虚拟环境中重现物理现实,提供不违反“物理规律”的镜像世界。在镜像世界中训练机器人,直至出现能够执行任何智能任务的人造系统,才是更重要的星辰大海。
届时,人工智能将彻底改变经济结构、教育与学习方式、社会治理乃至军事等诸多领域,掀起医疗健康、交通出行革命等。
可用与好用:提高AI解决实际问题的能力
锦观智库:从产业角度来说,如何把握人工智能技术带来的机遇和挑战,如何让应用从“可用”发展为“好用”,把创新的破坏性降到最低?
许鑫:以前,人工智能为何不能用,或者说不好用?背后的深层次原因是其缺乏“常识”。常识是我们人类与物理世界互动的结果,并没有在任何文本中体现出来。大模型从文本中提取的大量背景知识,对潜在的现实没有直接经验,因此展示的常识性知识非常浅薄,在应用中与现实脱节。可以通过这样一个例子来说明:大模型能够根据足球的材质、颜色等物理信息,得出足球被踢飞后的运行轨迹,但这个推理过程不包括“香蕉球”“电梯球”等普通球迷拥有的常识,而是基于训练数据中的概率。通过规模化训练,大模型在语言交流、图像和视频生成方面达到了接近人类的效果,但无法很好地应用于解决基于因果的现实问题。
要让应用从“可用”发展为“好用”,需要让人工智能理解常识,即让“他们”彻底了解事物之间的联系,以及具体的运行规律。听上去容易,实际工作却相当复杂,对该问题的思考几乎与人工智能技术一同开始,即如何训练人工智能模仿人类婴儿学习基础知识,教会它们主动获取知识。教会AI彻底像人类一样思考显然很难在短时间内实现,目前努力的方向更多是对垂直领域进行深耕,“人工智能+传统产业”即要令其掌握单个领域的知识与运作规律,即将行业知识引入机器学习模型中,形成一个闭环,提高AI解决实际问题的能力。
降低人工智能创新的破坏性是一个复杂的问题,需要政府、企业和社会各方的共同努力。政府侧应制定和完善相关法律法规,明确人工智能技术的研发、应用和管理规范,确保人工智能技术的合法、安全、可控使用;企业侧需继续加大在人工智能领域的研发投入,减少因技术缺陷导致的潜在风险,降低破坏性;社会侧可积极推动人工智能公共伦理教育,减轻对于人工智能技术的恐慌,增强自身的伦理安全防范意识,还可以积极组织公众参与数字劳动技能再培训活动,应对劳动力挑战问题。
风险与利好:重视人工智能的“双刃剑”效应
锦观智库:新技术在创造大量机会的同时,也会带来意想不到的风险。如何才能兼顾好发展与安全,让技术沿着对人类有利的轨道发展?
许鑫:相较于其他领域的新技术,人工智能技术更复杂、更不可控、更难预测。一是作为通用目的技术,其风险也更为“通用”。通用目的技术是指那些具有广泛适用性并能够对经济和社会产生深远影响的技术。人工智能的应用遍及各个行业和领域,人工智能技术风险发生的范围会随着应用场景的日趋广泛而逐步扩大,问题发生的可能性也会随着其应用频次的增长而持续提高。
二是算法训练是一个“黑箱”,过程不可解释。深度学习模型通常涉及大量的非线性变换和特征之间的复杂交互,这些非线性和交互效应使得模型的行为难以直观理解。同时,其还有自适应、自学习等隐藏“技能”,导致极其容易偏离人类预设目标。
三是大模型依赖大数据,导致结果不可控。大模型需要通过大量的数据来学习识别模式,做出决策。数据本身是物理世界的映射,其难免包含社会偏见与有害信息。若未能对数据质量进行有效把控,大模型便很可能习得数据中的偏见、谬误,致使人工智能系统的功能行为及其影响变得更不可控。
如何兼顾人工智能的发展与安全,确保其沿着对人类有利的轨道发展?
首先,技术层面要加强可解释性与透明度,开发可解释的AI模型,增加信任、降低误解;要加强数据隐私保护,使用去标识化、数据加密等技术来保护个人数据隐私,同时确保AI系统的训练不会侵犯用户的隐私权;要提升泛化能力与鲁棒性,使其更好地泛化到新环境和抵御对抗性攻击。
其次,法规与政策层面要加强立法与监管,制定合适的法律框架和监管机制,规范AI技术的开发和应用;要建立问责制,明确AI系统的责任归属,包括开发者、运营者和使用者的责任。具体可以在人工智能发展初期先通过制定行业公约、伦理规范、技术指南等对其进行敏捷灵活的治理,待其发展相对成熟,可出台相关法律对其进行约束管控。
再者,伦理与文化层面,建立和遵守AI伦理指导原则,如造福人类、避免伤害、公平正义等价值理念,为人工智能技术层面的开发和运用提供价值判断标准;构建跨学科方法,结合技术、人文、社会科学和法律等多方面的知识,共同解决AI技术带来的复杂问题。
“软”“硬”兼施:打造国家人工智能产业重要支点
锦观智库:发展人工智能,既需要技术、应用和基础设施等硬件,也需要行业标准、法律法规等软件,在软硬件方面,成都具备哪些基础条件?
许鑫:近年来,成都坚持以需求催化场景、以场景提升能力、以能力壮大产业,人工智能产业稳步提升。2023年成都人工智能产业规模达780亿元。
硬件方面。技术领域,成都在感知识别、认知推理、人机交互等方面具备较强技术实力,形成了一批具有国内外领先水平的自主知识产权成果。川大智胜、久远银海等8家企业入选2022年工信部人工智能创新任务揭榜挂帅入围单位名单,数量排名全国第3;应用领域,成都以“智慧蓉城”为牵引,积极组织开展人工智能新技术新产品新模式在实体经济、民生服务、智慧城市中的深度应用,10个场景入选全国“智慧百景”;基础设施领域,成都构建起超算智算通用计算一体的算力供给体系。超算方面,已投运国家超算成都中心主机性能峰值达170P,性能位列全国第3。智算方面,成都智算中心主机性能峰值达300P,入选国家新一代人工智能公共算力开放创新平台建设名单。通用算力方面,拥有阿里、万国、中移动等大型和超大型数据中心,机架数已超7万个。
软件方面。政策层面,成都为加快推进人工智能产业发展,相继出台了系列实施意见、产业规划等,构建起“算法+算力+数据”的全产业政策体系,特别是在全国首创“算力券”供给机制,采取政府统购、企业申请、定向支持、事后兑付的方式,将成都超算、智算双中心算力资源优势,转化为产业发展和城市建设优势;行业治理层面,组建成都市人工智能专家智囊团、成都市人工智能伦理委员会,依托成都市人工智能伦理委员会发布《大模型落地应用与规范发展成都宣言》,打造“算力赋能大模型特色应用探索营”,推动行业自治。
相比北京、上海、杭州等城市,成都在产业能级、创新发展、要素资源等方面还存在一些不足。随着在政策、机制、模式创新上持续积极探索实践,成都有潜力、有希望成为国家人工智能产业的重要支点和备份基地。
编辑:何维 主编:周雨