社论:立好规矩之后,AI未来可期

作者:duke 日期: 分类:网络转载 浏览:239

AI的潘多拉魔盒正在开启吗?

继意大利暂时禁止使用ChatGPT后,德国政府也表达了准备考虑暂时禁止的可能性,紧随其后的还有法国等欧洲国家也表示考虑采取严格监管;而美国总统拜登周二在白宫与其科技顾问举行会议,讨论AI对人类、社会和国家安全的风险和机遇。

与此同时,最近美国生命未来研究所向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室暂停比GPT-4.0更强大的人工智能系统训练至少6个月,上千各界名流参加了签字倡议。

这是人类又一次忌惮于自己带来的技术威胁,与其较为接近的一次是为核武器而构建核恐怖平衡的制度安排。

AI代表了人类认知的边界,既然是边界就充满不确定性,而这恰是人们最为忌讳的。一直以来,可控性是人类科技发展的主线,这种可控性一方面来自于人类通过掌握硬科技以降低来自自然的伤害,提高利用自然的效率;另一方面人类通过道德、伦理等非正式规范,以及法律等正式规范,来约束自身行为,通过降低人类组织的熵值,激发个体乃至群体智慧。

当务之急是需对AI有一个清晰的定义。AI开发者和应用者,都需明确应基于工具理性而非价值理性来看待AI,至少目前的AI是一种高级自动化的自然语言处理程序,其智能更多是基于人类现有存量知识的应用,其本身不会衍生新知识。

为此,我们需防备的是AI开发者和AI训练师等将人类本身的一些阴暗面和无节制的欲望,强行灌输于AI之中。要知道,AI是人类的影子,开发者、训练师是什么,AI就会是什么。而这首先就要将道德、伦理等共识变成AI开发和训练的强约束。

同时,要充分发挥AI的工具理性,亟须设定一套能迎应人工智能的透明化担保和防护型保障体系,护卫AI产业的程序正义。目前英国政府通过《人工智能产业白皮书》,提出了发展人工智能的五大原则,即安全性、透明度、公平、问责制和补救性等。

安全性是AI存废的关键,各国应协调得出人工智能的安全共识。这方面可借鉴科幻作家阿西莫夫提出的机器人三原则之第一条:不得伤害人类,或坐视人类受到伤害。同时,将人工智能的安全共识,以透明化、可问责和可补救的全生态流程来规范和监控,为人工智能提供正确做事的保障体系。

此外,人们对AI最具现实的恐惧,集中表现在AI给人们带来了高度不确定的未来,如AI是否会替代其现有就业岗位等。

目前的社会教育体系和认知体系,在强AI之下,确实可能面临巨大的挑战。这种挑战,并不主要缘于越来越多技能型工作将被AI替代,而是人们在新旧就业岗位变动中的转换成本。为此,永远不要低估人对环境的惰性,人的恐惧本质上就是被拉出了舒适区。

当然,AI在替代一部分工种的同时,其实也在创造新的就业岗位,如AI极大地将人从技能型工作中解放出来、让人类从事其更擅长的感知和智慧型工作,将是强AI下的主要工种,各种专业化的审美工作,将以AI训练师的岗位,向人们招手。为此,政府需加强搭建广泛的就业培训体系,以降低人们适应新环境的成本。

欲穷千里目,更上一层楼。当前AI正以越发高智能的供给,将人从技能型的体力和脑力劳动中解放出来,为人们描绘可期的未来,为此降低人们对AI恐惧的最有效办法,不是为AI的发展设置路障,而是不断探索适合AI发展的规矩,既让其勇敢试错,又尽可能降低试错成本。

关键词: