购物车 登录  注册 退出
  1. 首页 > 新经济 > 元宇宙

chatGPT是什么,它的出现会带来哪些影响?

作者:147小编 日期:2023-07-21 21:04:00 点击数:


如今,谷歌、微软、百度都在用类似ChatGPT的工具实现向对话式搜索的转型。这会如何改变人类与机器的关系呢?

推出才几个月,对话机器人ChatGPT就以比肩人类的写作和答题能力惊艳了世界——人工智能也正式“登陆”搜索引擎。

几周前,全球最大的三个搜索引擎——谷歌(Google)、必应(Bing)、百度——纷纷宣布将在其搜索产品中整合ChatGPT或类似技术,让用户在输入某个词汇或问题后可以直接获得答案或是展开对话,而不再是只能看到一大串链接。那么,这会如何改变人类与搜索引擎的关系呢?这样的人机交互有潜在风险吗?

研究发现,聊天机器人越是像人,人类对它信任度就越高。来源:Getty

ChatGPT由美国加州的OpenAI开发,微软的Bing也采用了和ChatGPT相同的技术。这三家公司使用的都是大型语言模型(LLM)。LLM 通过模仿它们在大型数据库中见过的文本统计模式,就能输出非常“逼真”的句子。谷歌在2月6日发布了由AI驱动的搜索引擎——Bard,目前正在进行小规模内测。微软的版本目前已广泛可用,但自由访问权限仍需在等待名单中等候。百度的“文心一言”(ERNIE Bot)也将在3月问世。

在这些消息宣布前,一些更小的公司已经推出了它们的AI搜索引擎。旧金山计算科学家Aravind Srinivas说:“搜索引擎正在迈入这个新阶段,你实际上已经可以和它们对话了,就像和朋友聊天一样。”Srinivas去年8月参与创建了Perplexity——这是一个基于LLM的搜索引擎,能以对话式英语回答问题。

信任度变化

相比传统的互联网搜索,对话式搜索极具个性化,这可能会左右人们对搜索结果的看法。人类也许天生就更容易相信从聊天机器人而不是冷冰冰的搜索引擎那里得到的答案,瑞士苏黎世大学的计算社会科学家Aleksandra Urman说道。

美国佛罗里达大学在2022年发表的一项研究[1]发现,对于亚马逊(Amazon)和百思买(Best Buy)这类公司来说,当研究对象在和它们的聊天机器人对话时,如果研究对象认为对话越有人情味,他们对这个公司的信任度也越高。

这或许是好事,能让搜索过程更迅速、更顺畅。但是,由于AI对话机器人会出错,过度信任也会引发问题。谷歌的Bard就在内部技术演示时搞砸了一个关于韦布空间望远镜的问题,属于一本正经地胡说八道。而ChatGPT对于它回答不了的问题,则喜欢虚构一个答案,该领域称这种现象为幻觉(hallucinating)。

谷歌发言人表示,Bard的出错“体现了严格测试流程的重要性,我们也将在这周推出内测用户(trusted-tester)计划”。但也有人推测,这类错误假设被发现的话,非但不会增加信任度,还可能让用户对对话式搜索失去信心。“早期印象的影响是巨大的。”1月推出的LLM搜索引擎Neeva的首席执行官、加州山景城的计算科学家Sridhar Ramaswamy说道。这一错误引发了投资者的担忧和股票抛售,使谷歌损失了1000亿美元。

缺乏透明度

除了不准确之外,缺少透明度也是一个问题。传统搜索引擎会向用户展示一连串的链接,待用户自己决定相信哪些信息。相比之下,人们基本无从得知LLM是用哪些数据训练的——究竟用的是大英百科全书还是某个八卦网站?

Urman说:“现在(AI驱动搜索)的运作方式完全不透明,如果这个语言模型出问题了,出现幻觉或是开始传播虚假信息,后果是不堪设想的。”

Urman指出,假设搜索机器人的错误率达到一定程度,它们开展对话的本领非但不会增加人们的信任度,还可能会打破搜索引擎作为真理公正裁决者的印象。

她在一篇尚未发表的研究中指出,当前的信任度还是很高的。她研究的是人们对谷歌用来提升搜索体验的一些现有功能的使用感受,这些功能包括“精选摘要”(featured snippets)和“知识面板”(knowledge panels)。“精选摘要”会将页面中被认为与搜索内容最相关的一段话置于链接上方;“知识面板”则是谷歌根据对某个人物或机构的搜索自动生成的简介。在Urman研究的人群中,几乎有80%的人认为这些信息是准确的,约70%的人认为这些信息很客观。

法国数据科学平台Hugging Face一直呼吁用负责任的态度使用AI。该平台的首席伦理学家Giada Pistilli说,对话机器人驱动的搜索模糊了机器与人类的差别。各大公司对AI领域进展的火速接纳令她担忧:“我们总是看到这些新技术毫无节制地‘砸’向我们,也没有培训框架来告诉我们应该怎么用。”

参考文献:

1. Lu, L. et al. Comp. Hum. Behav. 128, 107092 (2022).

原文以AI chatbots are coming to search engines — can you trust the results?标题发表在2023年2月13日《自然》的NEWS EXPLAINER版块上

原文作者:Chris Stokel-Walker

© nature

doi: 10.1038/d41586-023-00423-4

版权声明:

本文由施普林格·自然上海办公室负责翻译。中文内容仅供参考,一切内容以英文原版为准。欢迎转载我们的文章到知乎专栏,如需转载文章到问答,请私信我们您的问答格式和用途。未经授权的翻译是侵权行为,版权方将保留追究法律责任的权利。

© 2023 Springer Nature Limited. All Rights Reserved.

标签ad报错:该广告ID(29)不存在。

随便看看