当前位置: 网站首页 > 数码印刷 > 详情

ai时代搜索引擎的发展趋势(在搜索引擎中site)

2024-05-09 05:38:09 数码印刷 0

“有了搜索引擎,我们仍然需要花费大量时间翻阅网络来寻找答案。如果人工智能能直接把答案交给你,并保证准确性,不是更好吗?但问题是如果。

作者:Waleed Rikab 博士|

ai时代搜索引擎的发展趋势(在搜索引擎中site)

编译:唐诗|

ChatGPT 和其他聊天机器人可能很快就会取代最著名的搜索引擎,成为我们通往网络的门户。微软和OpenAI 最近宣布,他们正在扩大合作伙伴关系,其中可能包括将OpenAI 的模型集成到Microsoft Teams、微软Azure 云服务、Office 套件和搜索引擎中。

与此同时,谷歌也不甘示弱,可能会开始将基于其强大的LaMDA语言模型的产品集成到其服务中。毕竟,谷歌拥有世界上最受欢迎的搜索引擎。

事实上,据媒体报道,谷歌渴望生产自己的ChatGPT 风格的聊天机器人,名为“Apprentice Bard”,与ChatGPT 不同,它将能够使用实时信息生成文本字符串来响应用户的查询。

这对于我们访问网络内容意味着什么?这些语言模型将如何决定我们应该看到哪些信息?最后,人工智能搜索引擎将如何改变知识的定义?

01、语言模型作为新的搜索引擎

可以肯定的是,当今的搜索引擎由算法驱动,这些算法确定我们首先看到哪些结果以及我们应该依赖哪些来源来形成我们对世界的理解。

虽然它们可能会排除结果并过滤掉图形或非法内容,但当前的搜索引擎在很大程度上允许我们比较不同的来源和观点,并由我们来决定哪些结果是可靠的,特别是如果我们想更深入地挖掘搜索结果。

但另一方面,搜索引擎在识别搜索请求的上下文方面非常糟糕,而且因为它们根据严格的层次结构(基于流行度或权威性的考虑)对网站进行排名,所以很难获得您想要的内容。具体信息。然而,随着时间的推移,人们开发了搜索技术来获得更精确的结果,例如将搜索词放在引号中、使用布尔运算符或将搜索限制为所需的文件类型或网站。

语言模型根据根本不同的原理工作,可能需要新的培训才能执行高效的搜索。语言模型经过大量文本的训练,以找到统计上可能的代表该主题已知内容的语言字符串。这意味着某个主题以某种方式讨论得越多,它在模型输出中就越突出。

虽然这样的架构听起来创新且高效,确保至少一些边际信息不会以权威形式出现,但它也令人担忧,因为在这种设计中,语言模型定义的知识成为其货币同义词。

换句话说,语言模型的设计有效地限制了我们从不同角度和多个来源检查主题的能力。

更糟糕的是,语言模型面临着进一步的挑战,这也限制了它们的输出。他们接受了从互联网和社交媒体收集的大量数据(例如大量帖子)的培训,并且能够复制所有类型的人类话语,包括种族主义和煽动性观点。 ChatGPT 并不是解决这些挑战的唯一模型,因为早期向公众发布的聊天机器人也复制了令人反感的内容,最引人注目的是微软的Tay 和Meta 的卡拉狄加。

因此,OpenAI建立了严格的过滤器来限制ChatGPT的输出。但在此过程中,ChatGPT 的设计者似乎创建了一个模型,可以避开任何可能引起轻微争议的内容类型,即使有一个看似无害的提示,询问如何描述美国总统奥巴马。或者特朗普。

当我最近问ChatGPT 奥巴马和特朗普是否是一位好总统时,答案是这样的:

在这个答案中,有几个问题:

由于缺乏关于好总统定义的任何后续问题,该软件只是继续回答,没有进一步询问。这种类型的回应可能适合一首幽默的诗,但人类作家通过询问特定信息请求背后的前提和期望来讨论这些问题。

该模型避免了对任何一位总统的任何判断:“无论如何,总统(奥巴马或特朗普)都是复杂且多面的,受到他的行为以及他执政的政治、社会和经济背景的影响。”无论政治观点如何发展,这种保持在感知的“适当”和“中立”范围内的动力似乎会导致非常平淡且缺乏信息的演示。

我们不知道聊天机器人的信息来自哪里,也不知道它是否值得信赖,因为它没有引用的来源。

当用户提示被认为不适当、敏感或违反使用条款时,过滤掉不需要的内容并发布通用或预先确定的输出,可能会将过多的权力交给主要关注保护其平台而不是公共利益的组织。因此,这些组织可能会不恰当地缩小允许的话语范围,以实现保护其工具或平台声誉的目标。

随着这些新的人工智能文本生成器在几秒钟内生成复杂主题的响应,由于用户偏好,使用人工智能输出来塑造可用知识的诱惑将会增加。

02、操纵的可能性

无论语言模型中的过滤器有多严格,富有创造力的用户总是操纵这些模型来产生任何想要的结果,从而导致了一个名为“即时工程”的新兴领域。

利用如何训练语言模型的技术知识,这些高级用户可以操纵聊天机器人说出几乎任何内容(一种称为“越狱”的技术),或更糟糕的是,甚至可以通过“即时工程”执行有害代码。执行这些“越狱”并绕过人工智能聊天机器人过滤器的一种方法是欺骗它“认为”它正在参与游戏或帮助写小说,如下所示:

另一种方法是让聊天机器人相信它处于训练模式:

这不仅仅是ChatGPT 的问题。 Claude —— 是一种经过不同审核原则训练的新模型,似乎也容易受到即时工程和越狱的攻击:

尽管克服各种类型的越狱和及时的工程尝试带来了所有的防御和学习过程,但用户最近成功地操纵了基于GPT 的模型来执行恶意代码,这表明这是会话聊天机器人的持续弱点:

03、这一切意味着什么

随着每个人都争先恐后地利用ChatGPT 的成功并引入越来越多的人工智能聊天机器人,语言模型固有的漏洞可能会变得更加明显并影响大部分公众,特别是如果这些聊天机器人集成到当今领先的搜索引擎中可能会变得更加明显。公众获取网上信息的主要方式。

这种影响将包括高度受限的数据和旨在避免任何争议的主题的共同表示。这种新的人工智能搜索引擎还需要不同类型的技能才能生成所需的信息。他们还将产生新型专业知识,旨在操纵这些模式以促进非法活动。

享有大型科技公司的支持和资源,这些谷歌和微软支持的人工智能搜索引擎可能比ChatGPT 更准确、更强大。但这种人工智能驱动的搜索引擎——如果确实成为访问网络内容——的主要网关,将赋予大型科技公司前所未有的力量,使用尚未经过适当测试且其影响和效用尚不清楚的技术。

对任何搜索查询提供听起来合理且看似写得很好的答案的承诺意味着—— 这一次互联网用户也可能成为限制可用知识范围的自愿参与者。

本文来自微信公众号:新研究(ID:chuxinyanjiu),作者:唐石