把人工智能关进笼子里?OpenAI凌晨发布ChatGPT“安全补丁”

作者:duke 日期: 分类:网络转载 浏览:215

潮新闻 记者 李超然 徐俊

4月6日凌晨,Open AI在官网发布了ChatGPT安全方法(Our approach to AI safety),以确保安全、可靠地为全球用户提供ChatGPT服务。

在ChatGPT被多国“封杀围剿”的当下,这份安全方法无疑起到了对公司未来,甚至整个行业未来发展稳定军心的作用。

七个层面保障系统安全

如今,ChatGPT有效提高了用户的生产力、增强了的创造力、并提供量身定制的学习体验,但它和任何技术工具一样存在风险。

在安全方法中,OpenAI从七个层面出发,来考虑系统的安全问题,即构建安全、可靠的AI产品,从实践中学习、优化、改善,保护儿童,尊重隐私,提高生成数据准确性,持续的研究和参与。

OpenAI表示,在发布任何新系统之前,他们会进行严格的测试,聘请外部专家提供反馈,构建广泛的安全和监控系统。

例如,OpenAI的最新模型GPT-4完成训练后,他们花了6个多月的时间在整个组织内开展工作,以使其在公开发布之前更安全、更一致。

在走出实验室后,系统的改善也尤为重要。

OpenAI认识到在实验、研发过程中得到的反馈终归是有限的,尽管进行了严谨、广泛的测试,人们在使用ChatGPT时遇到的各种意外都是无法预料的。所以公司会在产品投入使用后不断改进,控制滥用行为。

对于受众最关心的隐私问题,OpenAI作出说明,称公司不会使用数据来助力销售服务、做广告或建立人们的档案。虽然一些训练数据包括可在公共互联网上获得的个人信息,但这只是希望大语言模型了解世界,而不是了解个人。

多地“围剿” 拜登表态

在“隐私泄露”、“违规收集”等问题日益暴露,多国掀起了一轮针对OpenAI的监管风暴。

3月31日意大利打响 “第一枪”。意大利个人数据保护局宣布暂时禁止使用ChatGPT,并开始对OpenAI展开调查。

随后,在4月3日,德国联邦数据保护专员Ulrich Kelber表示,德国可能会效仿意大利,以数据安全方面的担忧为由,屏蔽ChatGPT。

在亚洲,一些企业已经尝到了信息泄露的苦果。3月11日,三星DS部门开始允许员工使用ChatGPT,但在不到20天的时间里就发生了三起机密信息泄露事件,三星方考虑再发生事故或会切断ChatGPT服务。

在多国政府和企业纷纷下场限制、“围剿”ChatGPT时,拜登似乎对人工智能的开发采取了更“自由放任”的态度。

本周二,在白宫与科技顾问举行的会议上拜登表示,人工智能是否危险还有待观察。

但他也强调,科技公司有责任确保其产品在公开之前是安全的,同时他呼吁国会通过两党隐私法,以保护孩子,并限制科技公司收集所有人的个人数据。

在自己的社交媒体上,拜登表示,在人工智能方面,政府必须既支持负责任的创新,又确保建立适当的护栏来保护人们的权利和安全。

去年10月,拜登政府发布《人工智能权利法案蓝图》(The Blueprint for an AI Bill of Rights),制定了一系列AI技术发展目标,旨在避免AI系统崛起带来的危害,其中包括保护个人数据和限制监控的指导方针。

但值得注意的是,《人工智能权利法案蓝图》并没有规定具体的执法行动,而是呼吁美国政府在人工智能驱动的世界中保护数字和公民权利。

美国专家认为,短期内拜登不会改变态度,但是他通过提高对人工智能的关注,为全国就人工智能安全问题展开对话奠定了基础,这是迫切需要的。

“转载请注明出处”

举报/反馈

关键词: