当前位置: 网站首页 > 数码印刷 > 详情

马斯克叫停(马斯克拒绝接种)

2024-04-16 21:11:31 数码印刷 0

3月31日消息,特斯拉首席执行官埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克以及其他数千名人工智能研究人员近日签署了一封公开信,呼吁暂停对更先进人工智能技术的研究。然而,这封信遭到了众多专家甚至签名者的质疑,被指加剧AI炒作、伪造签名、歪曲论文。

这封公开信是由生命未来研究所撰写的,这是一个非营利组织,其使命是“减少强大技术带来的全球灾难性和生存风险”。具体来说,该研究所专注于减轻人类面临的长期“生存”风险,例如超级智能人工智能。马斯克是该组织的支持者,2015 年向该组织捐赠了1000 万美元。

马斯克叫停(马斯克拒绝接种)

信中写道:“只有当我们确信人工智能的影响是积极的且风险可控时,才应该开发更强大的人工智能系统。因此,我们呼吁所有人工智能实验室立即暂停培训至少6个月。” GPT-4更强大的AI系统。人工智能实验室和独立专家应该利用这段时间共同努力,开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立外部专家进行严格审核和监督。”

信中还澄清道:“这并不意味着人工智能的发展总体上被搁置,只是从危险的竞赛中撤退到具有新兴能力的更大、不可预测的黑匣子模型。”它指的是像微软和谷歌这样的大型科技公司之间正在进行一场人工智能竞赛,这两家公司在过去的一年里都发布了许多新的人工智能产品。

其他著名签名者包括图像生成初创公司Stability AI 首席执行官Emad Mostaque、作家兼历史学家Yuval Noah Harari 以及Pinterest 联合创始人Evan Sharp 等。还有参与人工智能竞赛的公司员工的签名,包括谷歌姐妹公司DeepMind和微软。尽管OpenAI 开发并商业化了GPT 系列人工智能模型,但没有人签署这封信。

尽管经过了验证过程,这封信最初还是有许多虚假签名者,其中包括冒充OpenAI 首席执行官Sam Altman 和Meta 首席人工智能科学家Yann LeCun 的人。人们。此后,生命未来研究所清理了该名单,并在验证每个签名时暂停在信上显示更多签名。

然而,这封公开信的发布引起了轩然大波,引起了许多人工智能研究人员的密切关注,其中包括许多签名者本人。一些签名者已经放弃了立场,一些知名人士的签名被证明是假的,还有更多的人工智能研究人员和专家公开表示反对这封信的描述和提议的方法。

纽约大学心理学和神经科学教授加里·马库斯表示:“这封信并不完美,但精神是正确的。”与此同时,Stability AI 首席执行官Mushtaq 在推特上表示,OpenAI 是一家真正“开放”的人工智能公司,“所以,我不认为暂停培训六个月是最好的想法,而且我不同意其中的很多观点。这封信,不过信中有些事情确实很有趣。” ”。

人工智能专家批评这封信进一步“人工智能炒作”,但没有列出或呼吁对当今存在的人工智能危害采取具体行动。一些人认为,这宣扬了一种长期存在但有些不切实际的观点,这种观点被批评为有害和反民主,因为它有利于超级富豪,并允许他们基于某些理由采取道德上可疑的行为。的行为.

华盛顿大学语言学系教授、公开信开头引用的论文合著者艾米丽·M·本德(Emily M. Bender)在推特上写道,这封信“充满了人工智能炒作”,并滥用了她的研究成果结果。信中指出:“广泛的研究表明,具有类人智能的人工智能系统可能对社会和人类构成重大威胁。”但本德反驳说,她在研究中特别指出,这种威胁指的是当前的大规模语言模型,它们在压迫系统中的使用远比公开信中提出的未来人工智能威胁更为具体和紧迫。

本德继续说道:“我们在2020 年底发表了一篇完整的论文,指出了这种急于构建更大的语言模型而不考虑风险的问题。但风险和危害从来不是关于‘人工智能太强大’;相反,它们是关于权力集中在人民手中,这关系到压迫制度的再现,这关系到信息生态系统的破坏,这关系到自然生态系统的破坏,等等。”

AI初创公司Hugging Face的研究科学家Sasha Luccioni在接受采访时表示:“这封公开信本质上具有误导性:它让所有人都关注假设的大型语言模型的威力和危害,并提出了非常模糊、几乎无效的解决方案, “而不是专注于这些危害并立即解决它们。例如,要求在LLM 的培训数据和能力方面提高透明度,或者要求立法指定您可以在何时何地使用它们以及如何使用它们。”

普林斯顿大学计算机科学副教授阿尔温德·纳拉亚南(Arvind Narayanan) 表示,这封公开信充满了人工智能炒作,“使得解决真正的、持续的人工智能危害变得更加困难”。

公开信提出了几个问题:“我们是否应该将所有工作自动化,包括那些有成就感的工作?我们是否应该培养最终可能超越人类智力并取代我们的非人类思维?我们是否应该冒着失去文明控制的风险继续发展人工智能?” ?”

对此,纳拉亚南表示,这些问题都是“无稽之谈”、“绝对荒谬”。计算机是否会取代人类并接管人类文明是一个非常遥远的问题,是分散我们对当前问题的注意力的长期思维的一部分。毕竟,人工智能已经融入到人们的工作中,减少了对某些职业的需求,而不是成为一种“非人类思维”,让我们“被淘汰”。

纳拉亚南还表示:“我认为这些可以被视为合理的长期担忧,但它们被一再提及,转移了人们对当前危害的注意力,包括非常现实的信息安全和安全风险!而解决这些安全风险将需要不幸的是,这封信中的炒作,包括夸大人工智能能力和对人类生存的风险,可能会导致人工智能模型受到更多限制,并使应对风险变得更加困难。

不过,公开信的许多签名者也为自己进行了辩护。研究组织Mila 的创始人兼科学主任Yoshua Bengio 表示,六个月的暂停对于包括政府在内的治理机构来说是必要的,以了解、审计和验证人工智能系统,以确保它们对未来有用。公众是安全的。他补充说,权力集中是危险的,人工智能工具有可能破坏民主国家的稳定,而且“民主价值观与这些工具的开发方式之间存在冲突。”

麻省理工学院国家科学基金会人工智能和基础交互研究所(IAIFI)物理学教授兼未来生命研究所所长马克斯·泰格马克(Max Tegmark)表示,最糟糕的情况是人类将逐渐失去对文明的控制。他说,现在的风险是“我们失去了对科技公司中一群未经选举产生的有权有势的人的控制,他们的影响力太大了。”

这些评论谈到了广阔的未来,暗示了对失去文明控制的担忧,但除了呼吁暂停六个月外,没有采取任何具体措施。

计算机科学家、分布式AI 研究所创始人Timnit Gebru 在Twitter 上发帖称,他们呼吁暂停训练比GPT-4 更强大的AI 模型,这很讽刺,但这并不能解决围绕GPT 的众多担忧-4 本身。