当前位置: 网站首页 > 数码配件 > 详情

当ai智能人遇到凶(当智能ai遇到凶神)

2024-04-28 20:47:52 数码配件 0

4 月5 日新闻:在过去的六个月里,强大的新型人工智能(AI) 工具以惊人的速度激增,从可以进行类似人类对话的聊天机器人,到自动运行软件的编码机器人,再到用人工智能创造事物。稀薄的空气。图像生成器,即所谓的生成人工智能(AIGC),突然变得无处不在且日益强大。

来源:Pexels 但上周,针对人工智能热潮的强烈抵制开始出现。以特斯拉和Twitter 首席执行官埃隆·马斯克为首的数千名技术专家和学者签署了一封公开信,警告“人类面临严重风险”,并呼吁暂停AI 语言模型的开发六个月。

当ai智能人遇到凶(当智能ai遇到凶神)

与此同时,一家人工智能研究非营利组织提出申诉,要求美国联邦贸易委员会(FTC) 调查创建ChatGPT 的OpenAI 公司,并停止其GPT-4 软件的进一步商业发布。

意大利监管机构还以侵犯数据隐私为由,采取行动彻底阻止ChatGPT。

有人呼吁暂停或放慢人工智能研究,这也许是可以理解的。几年前还显得不可思议甚至深不可测的人工智能应用现在正在迅速渗透到社交媒体、学校、工作场所甚至政治领域。面对这种令人眼花缭乱的变化,一些人发出了悲观的预测,认为人工智能最终可能导致人类文明的灭亡。

好消息是,对无所不能的人工智能的炒作和恐惧可能被夸大了。虽然谷歌的Bard 和微软的Bing 令人印象深刻,但它们距离成为天网还有很长的路要走。

坏消息是,人们对人工智能快速发展的担忧已经成为现实。这并不是因为人工智能会变得比人类更聪明,而是因为人类已经在利用人工智能以现有组织没有准备好的方式相互压制、利用和欺骗。此外,人们认为人工智能越强大,他们和企业就越有可能将其无法完成的任务委托给它。

抛开这些悲观的世界末日预测不谈,我们可以从上周发布的两份报告中初步了解人工智能对可预见的未来的影响。第一份报告由美国投行高盛发布,主要评估人工智能对经济和劳动力市场的影响;第二份报告由欧洲刑警组织发布,重点关注可能的人工智能滥用犯罪行为。

从经济角度来看,最新的人工智能趋势集中于自动化曾经只能由人类完成的任务。与动力织机、机械化装配线和ATM 一样,AIGC 有望比人类更便宜、更高效地完成某些类型的工作。

但更便宜、更高效并不总是意味着更好,任何使用过杂货店自助结账机、自动电话应答系统或客户服务聊天机器人的人都可以证明这一点。与之前的自动化浪潮不同,AIGC 能够模仿人类,甚至在某些情况下模仿人类。这可能会导致广泛的欺骗,并欺骗雇主认为人工智能可以取代人类工人,即使事实并非如此。

高盛研究分析估计,AIGC将改变全球约3亿个就业岗位,导致数千万失业,但也将带来显着的经济增长。不过,高盛的估计可能并不准确,毕竟他们有预测错误的历史。 2016年,该银行预测虚拟现实耳机可能会像智能手机一样普及。

高盛的人工智能分析报告中最有趣的部分是他们对各个行业的细分,即哪些工作可能会被语言模型增强,哪些工作可能会被完全取代。高盛研究人员将白领任务的难度分为1 到7 级,“审查表格的完整性”为1 级,可自动化的任务为4 级,例如“对法庭上的复杂动议做出裁决”。 ”是第6级。由此得出的结论是,行政支持和律师助理工作最有可能被人工智能取代,而管理和软件开发等职业将变得更有生产力。

该报告乐观地预测,随着企业从拥有人工智能技能的工人那里获得更多利益,这一代人工智能最终将使全球GDP增长7%。但高盛还预测,大约7% 的美国人将发现自己的职业生涯在此过程中变得过时,更多人将不得不学习技术才能保住工作。换句话说,即使AIGC带来了更积极的影响,其结果也可能导致大量员工失业,办公室和日常生活中的人类将逐渐被机器人取代。

与此同时,已经有很多公司渴望走捷径,将人工智能无法处理的任务自动化,比如科技网站CNET 自动生成错误百出的财经文章。当人工智能出现问题时,已经被边缘化的群体可能会受到不成比例的影响。尽管ChatGPT 及其同类产品令人兴奋,但当今大型语言模型的开发人员尚未解决带有偏见的数据集的问题,这些数据集已将种族偏见嵌入到人工智能应用程序中,例如面部识别和犯罪风险评估算法。上周,一名黑人因面部识别不匹配再次被错误监禁。

更令人担忧的是,AIGC 在某些情况下可能被用来造成故意伤害。欧洲刑警组织的报告详细介绍了AIGC 如何用于帮助人们实施犯罪,例如实施欺诈和网络攻击。

例如,聊天机器人能够生成特定风格的语言,甚至模仿某些人的声音,这可能使它们成为网络钓鱼诈骗的强大工具。语言模型在编写软件脚本方面的优势可能会使恶意代码的生成变得民主化。它们提供个性化、上下文相关的分步建议,可以成为想要闯入住宅、勒索某人或制造管状炸弹的犯罪分子的首选指南。我们已经看到合成图像如何在社交媒体上传播虚假叙述,重新引发人们对深度造假可能扭曲竞选活动的担忧。

值得注意的是,语言模型容易被滥用的原因不仅在于其广泛的智能,还在于其知识上的根本缺陷。目前领先的聊天机器人经过训练,在检测到有人试图将其用于邪恶目的时保持沉默。但正如欧洲刑警组织指出的那样,“只有当模型了解自己在做什么时,防止ChatGPT 提供潜在恶意代码的保护措施才有效。”正如大量记录在案的技巧和漏洞所表明的那样,自我意识仍然是该技术的弱点之一。

考虑到所有这些风险,你不必担心世界末日的场景,也不必看到AIGC 的发展速度放缓,从而给社会更多的时间来适应。 OpenAI 本身是一家非营利组织,其前提是人工智能可以以更负责任的方式构建,而无需面临实现季度收入目标的压力。

但OpenAI 现在在一场势均力敌的竞争中处于领先地位,科技巨头正在解雇他们的人工智能伦理学家,无论如何,这匹马可能已经离开了马厩。正如人工智能学术专家Sayash Kapoor 和Arvind Narayanan 指出的那样,当今语言模型创新的主要驱动力不是推动更大的模型,而是推动更大的模型。它是将我们拥有的模型集成到各种应用程序和工具中。他们认为,监管机构应该从产品安全和消费者保护的角度来看待人工智能工具,而不是试图像核武器一样遏制人工智能。

也许短期内最重要的事情是技术专家、商业领袖和监管机构抛开恐慌和炒作,深入了解AIGC 的优势和劣势,从而在采用它时更加谨慎。如果人工智能继续发挥作用,无论发生什么,其影响都将是颠覆性的。但高估其能力只会使其危害更大,而不是更少。