用户登录投稿

中国作家协会主管

人文为灯,照亮AI向善之路
来源:解放日报 | 俞耕耘  2025年11月23日19:57

积极回应怀疑与焦虑

关于AI模型不断增强的能力,信心和忧虑相伴而来。它涉及创新与安全两大基本问题。安全监管与技术创新该如何平衡协调是重要议题。书中辨析了悲观论、乐观论与繁荣论者对AI的基本态度。悲观者认为要像对待药品与核能一样管控AI。他们主张一种“预防性原则”,即新技术需要首先自证安全。乐观者则秉持技术的自我适应,“快速发展也意味着更强的适应性,而更强的适应性则意味着更短的产品周期、更频繁的迭代更新,以及更安全可靠的产品”。他们认为,限制或干预AI的发展速度,不仅阻碍提升人类福祉、延缓突破性产品和服务,还会破坏“以创新促安全”的理念。

作为繁荣论者的霍夫曼,给出的答案是:通过普及推广AI,提升大众参与度,自由进行公开实验和反复测试,主动拥抱监管。这种迭代部署是“实践论”的深刻体现,它将“带来更全面、更包容的反馈,缩短产品周期,加速产品改进,通常也会使产品更加安全可靠”。基于此立场,全书批评了悲观论者的“预防性原则”,其实质是保守封闭、消极武断的责任推卸。此原则将衍生出缺乏实证基础的预测性执法,同时“将举证责任转至引入潜在风险的一方”。多种预防性干预措施以不同方式减缓技术进步,同时也抹除了监管者的职责。潜在风险不应是禁止的理由,而是监管的必要,因噎废食没有出路。

优先考虑新事物、新技术,营造有利于创新、投资、提升创造力的商业环境,才是政策的最优选项。与观念论者不同,技术专家、企业家和投资者是AI的实际参与推动者,我称之为技术行动派。他们置身事内,更愿搁置争议,倾向于“无许可创新”的方法——即“主张为创新、实验和适应性提供充足的空间,特别是在尚未出现明确伤害或现有法规已经涵盖这些危害的情况下”。事实上,公开测试即是对监管的有效回应。

“测试是普通公众了解AI及其快速增长的最主要途径。”如今看到的AI模型建立在多年形成的测试与评估文化之上。“测试者通过这种方式,可以将测试的结果与先前建立的基准值进行比较,了解自己与行业中其他参与相同基准测试的竞争者的差距。”这是一种基于行业竞争的自我审核与持续改进,可以使AI开发从合法合规的最低要求,上升到持续优化的更高目标。

基准测试虽然不如法规具有硬性约束力,但它有助于提升透明度,并使问责更加精准。它塑造出一套筛选和评估系统,在测试中表现不佳的算法预先就被淘汰。相对于专业法规的“静态监管”,基准测试提供了动态治理的激励机制。“测试的主要作用不是限制、约束或以其他方式设定允许的行为范围”,而是激发追赶超越其他同行模型的改进努力。

超级能动性的主导力量

AI的快速发展满足了人类对超级能动性的追求。如突破自然人的生理限度,其强大的并行处理能力可帮助我们摆脱迟钝的神经架构,更好地解决复杂问题。AI可随物赋形应用于各个领域,与其他各类新技术同构或“联姻”,可实现各种价值衍生。我们理应放弃AI威胁人类、与人类竞争、淘汰人类的悲观论、末日论观点。这些威胁只有在人类彻底消极、毫无作为、放弃能动性的前提下才会发生。而人类正是因为寻求能动性、争取自主才去发展AI。

相反,人类会因为AI潜在的替代性,被迫激发出更大能动性。我称之为学习“驯化”机器,利用算法让渡部分基础工作,在人机协同合作中,发挥主观创造力。如在多轮对话中,用户通过引导、启发,甚至质疑方式干预AI,使模型调节优化,变得更包容。同时,AI又逆向培养出善提问、敢要求、爱质疑的人,这是重塑主体性的过程。AI是人类决策的助手、向导与伙伴,它的预处理工作将为我们节省极大精力。这一过程势必会产生相对赢家,而参与者、使用者显然比其他人获益更多,这“取决于接纳AI提供新机遇的速度和胆识”。

大语言模型将大数据转化为“大知识”,其衍生的“会话智能体功能”提供了情境感知与理解力。通过工具增强个体自主性,对于初学者提升技能、打破门槛垄断、消除结构性不平等意义深远。弱势群体在教育、医疗、法律咨询中的无力感将显著改善。大语言模型解决了人性弱点,对任何用户都不会冷落,即时响应、永远耐心、始终愿意回答额外问题。

当国家、全球层面将AI视为发展战略,采取亲技术、亲创新的立场,生产力和效率将显著提升。“新AI模型将拥有更出色的能动性和顺序规划能力,从而成为技术精湛的各类工作者。”国家竞争将促成AI技术的成功整合,“随着各国纷纷建立数据中心和超级计算机以推动AI发展……这些资源正逐渐成为维护国家经济竞争力和国家安全的关键因素”。

协同进化是必由之路

对于AI的未来,理应持开放包容态度,这体现为容忍风险度、适应不确定性。只有更大的容错率与试错范围,才能促进人工智能飞跃。作为繁荣论者的霍夫曼,始终以动态发展论、技术适应论看待AI。比如,它仍会犯低级错误,不法分子将有更多技术手段从事犯罪活动,侵权与虚假信息更易散播。然而,潜在风险恰恰催生了新的社会治理模式——不只是监督AI本身,也会管控使用AI的方式。

“动态契约”可被视为一种应对方案,它是对技术自由的新认知。AI赋能提供了更大自由,但这种自由需要兼顾新规则与新平衡。我们对自由的构想其实与技术实现的能力密切相关。而AI技术本身亦可服务、拓展于监管,如对于限速、限流、禁烟、禁停的完美控制,违规行为将自动受到惩处。当法规代码化,技术能克服任何人性弱点,以毫不妥协的精准度做到执法零容忍。

然而,这也意味着完美控制将取代原有的弹性裁量和自主空间,“可能会使判断、协商、灵活性、道德推理、宽恕和同理心等人类特有的能力变得毫无用处”。事实上,我们需要动态化更强的智能条约,它将重构合法化与信任模式。AI迭代进化的目标是人机高度协同,解决技术融入社会的适配难题:既要有机器的精准高效(遵守规则),又要满足人性中具体灵活的决策需求(合情合理)。

“机器学习允许引入本质上动态且自适应的基于代码的规则,从而复制传统法律、规则中由自然语言的灵活性和模糊性所带来的某些特征”,只要这些系统能从收集到的数据中去学习,它们便能不断进化,完善其规则,以更好地匹配其适用的具体情况。换言之,AI安全融入社会,获得合法化之路,实质需要公众参与到更宏大的社会契约,并寻求新的接受、新的认同。

一方面,AI模型训练要在可解释性与可理解性上模拟人类特质,通过数据洞察强化判断,实现更强的可拓展性与适应性。另一方面,公众要在AI合法化过程中发挥积极和实质作用。如将AI融入政府服务,可增加公众参与机会,提升部署的进展。同时,AI可更高效地将公众与政府连接,更易协作与反馈,成为提升社会凝聚力的建设性力量。作者强调要以对整个社会有益的方式部署AI,超越单纯的商业化利益,重视社会共识和公众协同。“在这个高度互联、技术驱动的世界,想要取得富有成效的结果,不能仅仅依赖于计算能力、创新能力或有效的监管制度,社会的凝聚力同样至关重要。”

霍夫曼围绕迭代部署、动态契约和协同进化等概念,描绘了AI的总体性发展框架。概括说,即AI要与人类发展利益相向而行,助力人类的“再进化”。“如果我们主动选择,AI技术是可以沿着我们设想的轨迹实现的,并最终为个人与社会带来进步。”这正是技术人文主义的旨归,始终坚持“技术是手段、AI是延伸、人是目的”这一核心。这是全新语境下对工具理性、技术异化的警惕,也是重塑全新人类主体性的历史实践。