《中国经济周刊》首席评论员 钮文新
如果科技发展不讲人类的伦理,核武器、生化武器变成常规武器,那人类将会遭遇怎样的命运?实际上,科技发展一直伴随着伦理的讨论和约束。现在,人工智能面临同样的问题。试想,如果ChatGPT可以谋划出杀人越货、抢劫银行的最佳路径等帮助不法分子作案,那这个社会将会变成什么样子?
最新的消息是:生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。与此同时,由马斯克领衔,硅谷1000多位企业家、科学家也联名发出呼吁,他们认为:全社会都在为AI的进化而欢呼雀跃,但全新的、意想不到的风险可能也正在悄悄酝酿。3月22日,生命未来研究所称:我们不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的才能继续开发。
这项呼吁得到广泛支持,而更为普遍的认知是:需要先为人工智能技术发展立法。所谓先立法、后发展的主张,实际就是确信,人工智能技术的发展,必须接受人类伦理约束。但也有反对声音认为,科技发展一旦被各种条文捆住手脚,那它的发展就会被大打折扣。那到底应当如何是好?应当说,人工智能超越了历史任何一次科技进步对人类伦理的冲击,非比寻常。发展慢一点,健康一点,总比它大规模突破人类伦理底线而泛滥成灾要好。
中国对科技发展的伦理约束非常重视。2022年3月,中共中央办公厅、国务院办公厅应当前和未来科技发展趋势,印发《关于加强科技伦理治理的意见》。深刻体现了生命至上和人民至上理念,系统论述了全面提升科技伦理治理能力和完善科技伦理治理体系的具体措施,绘制了为健全科技伦理治理体系提供制度保障的路线图,为我国抓住第四次技术革命的发展机遇,系统防控科技研发与推广应用过程中的潜在风险,引领高质量发展和加快数字化转型提供了价值导向。
毫无疑问,我们当然不能藐视或拒绝人工智能的研究,但中国未来的人工智能研究应当具备怎样的特点?具备怎样的功能?至少我们应当明确一个粗浅的道理:无论是怎样的技术革命,它都必须是为人类谋幸福,而不是相反。尤其是今天,当科技发展开始挑战人类智力极限之时,发展过程中的利弊权衡则显得更为重要。为此,我们必须时时拷问:我们需要怎样的人工智能?
责编:姚坤
(版权属《中国经济周刊》杂志社所有,任何媒体、网站或个人未经授权不得转载、摘编、链接、转贴或以其他方式使用。)