埃隆马斯克对人工智能的看法是正确的

作者:duke 日期: 分类:网络转载 浏览:140

作者简介:保罗·m·巴雷特,纽约大学斯特恩商学院商业与人权中心副主任、高级研究学者

承认钟表坏了这一老生常谈,但我们必须承认,即使是狂妄自大的大亨有时也是正确的。举个例子:埃隆·马斯克(Elon Musk)呼吁暂停对比OpenAI的尖端GPT-4更强大的人工智能系统进行六个月的“训练”,这是正确的。至少在理论上,一个喘息机会将允许该行业为这种快速发展的技术开发共享护栏。

马斯克可能有个人原因对OpenAI进行抨击,OpenAI是他在2015年帮助创建的。但比马斯克个人观点更重要的是,其他1800名左右的技术专家——其中一些是人工智能初创公司的现任和前任高管也签署发表了一封公开信,呼吁暂停六个月。鉴于聪明的技术专家将“生成式”人工智能与已知和未知的风险联系在一起,该行业应该慎之又慎。

正是处于人工智能争议中心的初创公司OpenAI,以及硅谷当前的“It”公司,承认了其产品正在造成的危险程度。OpenAI在3月27日发布的一份题为《技术报告》(Technical Report)的报告中表示,“随着GPT-4和类似的人工智能系统被更广泛地采用,”它们“将有更大的潜力来强化整个意识形态、世界观、真理和谬误,并巩固或禁锢它们,阻止人类的争论、反思和改进。”

如果这就是这项技术的设计者自己要说的话,那么适度的暂停似乎是非常合理的。但是OpenAI并没有表现出要接受这样一个计划的迹象。该公司的主要投资者微软(Microsoft)也不这么认为。截至周二,微软还在积极发布OpenAI发明的新应用程序。

其他科技领袖也认为有必要重新思考。马斯克的公开信联署者包括OpenAI的主要竞争对手Stability AI的创始人伊马德·穆斯塔克(Emad Mostaque);加州大学伯克利分校(University of California, Berkeley)计算机科学教授、人工智能标准文本的合著者斯图尔特·拉塞尔(Stuart Russell);Pinterest联合创始人埃文·夏普(Evan Sharp)。

本着健康停顿的精神,让我们简要回顾一下我们是如何做到这一点的。OpenAI成立于八年前,是一家非营利组织,得到了马斯克、领英联合创始人里德·霍夫曼和其他科技界大腕的高调支持。正如Semafor的Reed Albergotti在一篇精彩的文章中所记录的那样,马斯克在与其他一些联合创始人的权力斗争中失利,并于2018年气冲冲地离开了。他已经向该公司投资了1亿美元,但据报道,他未能兑现在几年时间里总共投资10亿美元的承诺。面对资金短缺,OpenAI在2019年转型为一家营利性公司,由与马斯克有过节的联合创始人之一萨姆·奥特曼(Sam Altman)领导。

微软介入,为OpenAI的基础设施提供资金,用于在大量在线文本和图像上“训练”被称为大型语言模型的计算机程序。去年11月,OpenAI发布了ChatGPT程序,该程序可以对用户的提示做出诡异的类似人类的散文回应。但大型语言模型的效果只能与训练它们的经常出错的互联网内容一样好。它们可以“产生”完全虚假的“幻觉”,只要有足够的刺激,就会促使用户为了那个聊天机器人离开他的妻子。在承认这些弱点的同时,OpenAI本月继续推进,推出了GPT-4。该公司表示,基于更广泛的训练和“更高级的推理能力”,GPT-4可以生成更准确、更有创意的散文回应。

OpenAI生成式人工智能所基于的数字架构并不是全新的。谷歌几年前发明的。但在微软的支持下,OpenAI已经超越了谷歌,目前可以说是硅谷最热门的公司。

马斯克显然对事态的发展感到愤怒。去年12月,他切断了OpenAI从Twitter获取培训数据的渠道。Twitter是他去年收购的社交媒体公司,自那以来一直处于核心地位。今年2月,他在推特上写道:“OpenAI是作为一个开源(这就是我为什么把它命名为“开放”AI)的非盈利公司创建的,旨在与谷歌抗衡,但现在它已经成为一个由微软有效控制的闭源、最大利润公司。”

因此,马斯克呼吁OpenAI暂时停止培训活动,部分原因可能是出于个人的不满。但这并不意味着他和其他签署“让我们休息一下”信的人是错的。

华盛顿大学语言学教授、著名人工智能批评人士艾米丽·本德(Emily Bender)认为,这封信“充斥着#AI炒作”,许多观察人士对此不屑一顾。这篇文章确实有一些夸张的修辞,问:“我们是否应该发展非人类的思维,让它们最终在数量上、智力上超过我们,被淘汰并取代我们?”

OpenAI的GPT产品的操作原理是,如果一个聪明的、懂互联网的、但容易出错的人在写句子,那么它能以不可思议的精度预测句子中下一个会出现的单词。GPT不会在数量、智能或取代我们——至少短期内不会。但这并不意味着GPT及其后代不会造成严重的问题。

生成式人工智能可以让不良行为者更容易、更便宜地自动化制造令人信服的虚假信息,从而破坏人们对选举和公共卫生政策的信任。如果用于筛选工作、贷款或住房申请,它可能会加剧其他形式的人工智能所表现出的趋势,即放大人工智能系统支撑内容中固有的种族和性别偏见。欧洲执法机构欧洲刑警组织(Europol)警告称,生成式人工智能的才能之一是可以组装计算机代码,它可能成为制造用于各种网络犯罪的恶意软件的有力工具。

公平地说,生成式人工智能可能还有助于抓捕网络罪犯,修复有缺陷的计算机代码,检测乳腺癌,推进科学研究,并提供更准确的语言翻译。它还可能使现有的在线搜索方法黯然失色——尽管该领域的霸主谷歌坚持不这么认为。

换句话说,这是潜在的好与坏的混合。公开信并没有呼吁禁止gpt或任何其他类型的人工智能。它并没有呼吁停止人工智能研究。相反,它呼吁相对短暂地暂停一项活动——“训练比GPT-4更强大的人工智能系统”——以便行业和独立专家有机会“共同开发和实施一套先进人工智能设计和开发的共享安全协议”。

这种情况有可能发生吗?可能不会。有太多的钱可以赚。微软估计,通过gpt -涡轮增压其疲软的必应搜索引擎,从谷歌那里每夺走一个百分点的市场份额,就能获得每年20亿美元的广告收入。

但即使只是象征性的姿态,停下来思考如何设计和应用可生成人工智能,以最大限度地减少其对许多潜在危险的贡献,也将是当前军备竞赛升级的一个受欢迎的替代方案。它还可以让硅谷在另一个必要的讨论中获得信任,即政府在监管科技方面应该扮演什么角色,这些科技曾经看起来像科幻小说里的东西,但现在似乎更加真实。

关键词: