科技伦理审查提速 AI“变坏”设防

作者:duke 日期: 分类:网络转载 浏览:225

来源:北京商报

ChatGPT与GPT已走进大众的视线,我国众多的互联网大厂也正火速切入这一赛道。不可否认,GPT等人工智能应用极大提升了生产力、便利了大众的生活,但其也是一柄双刃剑,不久前甚至还出现诱导人类自杀的事件,由此产生的科技伦理问题也引发了全球的关注与担忧。

令人欣慰的是,我国已开始筹谋提前化解人工智能的科技伦理风险。日前,科技部公开征求对《科技伦理审查办法(试行)》(以下简称《办法》)的意见,其中明确提出,从事人工智能的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会,部分算法模型、自动化决策系统需要专家复核。分析认为,虽然伦理审查短期内会影响产品商业化的效率,但从长期来看,有助于人工智能行业可持续的健康发展,让我国在这一领域形成可持续的全球竞争力。

设立审查委员会

科技部本次发布的《办法》提出,从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。

此外,在《办法》的附录中还提到了“需要开展专家复核的科技活动清单”,其中包括:具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。

“ChatGPT与GPT等应用越来越广,也与我们的生活越来越近,我们在科技伦理方面也遇到了前所未有的挑战。”浙江理工大学数据法治研究院副院长郭兵认为,《办法》比较大的亮点在于,进一步对更广泛的科技伦理审查问题做了规定,并引入了专家复核制度。

事实上,在ChatGPT诞生之前,我国就已经出台与人工智能伦理的相关规范和标准。2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,旨在将伦理融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引,促进人工智能健康发展。

“目前我国科技伦理的审查,也正由传统的完全自律逐渐演变成为法定的义务。”郭兵介绍说,在2021年11月1日起施行的《个人信息保护法》中,已经明确规定了科技平台有义务设置独立的第三方机构对其个人信息的处理活动进行监督;其第五十八条则规定,提供重要互联网平台服务、用户数量巨大、业务类型复杂的个人信息处理者,应当按照国家规定建立健全个人信息保护合规制度体系,成立主要由外部成员组成的独立机构对个人信息保护情况进行监督。

“但《个人信息保护法》并未要求企业邀请何种外部人员,而科技领域、AI领域专业性较强,《办法》通过法定的专家参与机制的设计,能够更好地保障人工智能伦理审查的效果。”郭兵进一步解释说。

伦理问题浮现

人工智能应用技术会带来哪些科技伦理问题?在中国数实融合50人论坛智库专家、商务部研究院电子商务研究所副研究员洪勇看来,人工智能可能面临对自然资源的消耗、产品更新换代产生的各种垃圾等环境伦理问题,隐私泄露、歧视、失业、安全风险等个人伦理问题,以及推理能力、可解释性等技术伦理问题。

“从个人的角度来看,人工智能的应用还可能会侵犯人格尊严。比如算法所引发的歧视风险,还包括公民的隐私和个人信息泄露的风险。人工智能也可能引发劳动者权益方面的争议,引发劳动者的‘饭碗焦虑’。”郭兵说,人工智能甚至还可能危及个人的生命与健康。

正如郭兵说述,虽然ChatGPT与GPT诞生不久,但已有值得引起关注的案例。

有媒体援引比利时媒体La Libre 3月28日的报道,一名比利时妇女声称,她的丈夫在与 AI 聊天机器人Chai交谈了六周后自杀身亡,背后主要原因是Chai鼓励用户自杀。据悉,聊天机器人Chai是基于GPT-4替代方案研发的产品。

在此次事件中,Chai在法律层面将承担怎样的法律责任、又该如何追责?“在这方面目前仍备受争议。”河南泽槿律师事务所主任付建认为,人工智能技术的程序是开发人员编写的,但决策是由机器做出的,如果出现重大失误造成损害后果,责任谁来承担仍存在争议,同时,人工智能能否对自己做出的决策进行道德判断也是一个值得商讨的问题。

全球千余专家发声

也许因为身处人工智能领域的最前沿,最为了解GPT的运行逻辑以及“涌现”的概率,在Chai事件发生后的第二天,全球范围内众多专家疾速发声。

3月29日,包括马斯克、图灵奖得主约书亚·本吉奥、苹果联合创始人斯蒂夫·沃兹尼亚克在内的1000多名人工智能专家和行业高管联名签署了一份公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。

事实上,人工智能存在的伦理问题风险也引起了联合国教科文组织的注意。近日,联合国教科文组织发表声明,呼吁各国政府尽快实施该组织通过的首份人工智能伦理问题全球性协议——《人工智能伦理问题建议书》。

在最新发布的声明中,联合国教科文组织对科技创新引发的伦理问题表示关切,尤其是歧视、性别不平等问题,此外还有打击虚假信息、隐私权、个人数据保护等。行业自律显然不足以避免这些伦理危害,因此,《人工智能伦理问题建议书》提供了工具,以确保人工智能的发展遵守法律,避免造成危害,并在危害发生时启动问责和补救机制。

“从社会和经济层面来看,企业一般利益至上,如果各家科技巨头通过研发的大型语言模型,利用‘算法暗箱’,谋一时之利,就有可能有损整个社会利益和国家利益,给国家安全带来风险。”郭兵补充说。

短痛与长痛的选择

“《办法》进一步明确政府、科研机构、科技企业等责任主体,建立伦理高风险科技活动的清单制度,有效避免人工智能技术被不当滥用,推动人工智能技术健康可持续发展。”中国电子商务专家服务中心副主任、知名互联网专家郭涛认为。

但不得不说,此次的《办法》实施后将对行业产生重大影响。

“对人工智能可能带来的问题提前加以防范,进行伦理审查会对行业产生重大影响。此前更强调数字技术、人工智能技术在效率上带来的变革,而忽略技术对社会、对个人产生的伦理问题。随着科技伦理越来越得到重视,将会对人工智能在医疗、教育、无人驾驶等领域的应用产生影响。”北京市社科院研究员、中国人民大学智能社会治理研究中心研究员王鹏对北京商报记者表示。

郭兵就《办法》给人工智能行业带来变化进行了具体化的解读,“随着人工智能伦理审查越来越严,会增加企业的成本,尤其引入了专家复审要求后,会影响产品或技术市场化的效率,研发出来的某个算法模型不能立马投入商业化的应用。”

但郭兵认为,另一方面,审查的严格将有利于人工智能产业的可持续发展。“如果企业研发的产品投入市场化之后产生伦理方面的巨大争议,面临巨大法律风险,被直接叫停,带来的不利影响会比人工智能伦理审查带来的影响要更大,从长期来看,加强伦理审查有利于人工智能企业的可持续健康发展。”

举报/反馈

关键词: