幻觉?马斯克TruthGPT也搞不定,OpenAI联合创始人直言很复杂

2023-05-04 08:27:45   来源:创业邦

OpenAI如何打击幻觉?

编者按:本文来自微信公众号“新智元”(ID:AI_era),作者:新智元,编辑:桃子 拉燕,创业邦经授权发布。

大模型的幻觉问题,就连马斯克搬出TruthGPT也搞不定。


(资料图)

上个月,马斯克疯狂呼吁叫停超级AI研发6个月。

还没等多久,老马就坐不住了,直接官宣推出一个名为TruthGPT的AI平台。

马斯克曾表示,TruthGPT将是一个「最大的求真人工智能」,它将试图理解宇宙的本质。

他强调,一个关心理解宇宙的人工智能不太可能灭绝人类,因为我们是宇宙中有趣的一部分。

然而,「幻觉」,到现在还没有哪个语言模型能够搞定。

最近,OpenAI联合创始人便解释为什么TruthGPT的远大理想的实现是如此地困难。

TruthGPT理想是泡沫?

马斯克的X.AI想要建立的TruthGPT,是一种诚实的语言模型。

这么做,直接将矛头对准ChatGPT。

因为,此前,像ChatGPT这样的AI系统经常产生错误输出等经典幻觉案例,甚至支持某些政治信仰的报道。

虽然ChatGPT可以让用户更多控制语言模型去解决问题,但「幻觉」仍然是OpenAI、谷歌以及未来马斯克的人工智能公司必须处理的核心问题。

OpenAI联合创始人兼研究员John Schulman在他的演讲「RL和Truthfulness – Towards TruthGPT」中讨论了这些挑战以及如何应对这些挑战。

为啥有「幻觉」?

根据Schulman的说法,幻觉大致可以分为两种类型:

1. 「模式完成行为」,即语言模型无法表达自己的不确定性,无法质疑提示中的前提,或者继续之前犯的错误。

2. 模型猜测错误。

由于语言模型代表一种知识图谱,其中包含来自其自身网络中训练数据的事实,因此微调可以理解为学习一个函数,该函数在该知识图谱上运行并输出token预测。

例如,微调数据集可能包含「星球大战的类型是什么?」这个问题,以及答案「科幻」。

如果这些信息已经在原始训练数据中,即它是知识图谱的一部分,那么模型不会学习新信息,而是学习一种行为——输出正确答案。这种微调也被称为「行为克隆」。

但问题是,如果问题是关于「Han Solo的衍生电影的名字是什么」出现在微调数据集中。

但如果答案「Solo」不是原始训练数据集的一部分(也不是知识图谱的一部分),即使网络不知道答案,它也会学习回答。

使用实际上正确但不在知识图谱中的答案进行微调,从而教会网络编造答案——即产生「幻觉」。相反,用不正确的答案进行训练会导致网络隐瞒信息。

因此,理想情况下,行为克隆应始终基于网络知识,但创建或评估数据集的人类工作者来说,通常不知道这种知识,例如指令调优。

根据Schulman的说法,当其他模型创建微调数据集时也存在这个问题,就像羊驼公式的情况一样。

他预测,具有较小知识图谱的较小网络,不仅会学会使用ChatGPT的输出给出答案和遵循指令,而且学会更频繁地产生幻觉。

OpenAI如何打击幻觉?

首先,对于简单的问题来说,语言模型大部分情况下能预测自己是否知道答案,还能表达不确定性。

因此,Schulman表示,微调数据集的时候,必须得让模型学会怎么表达不确定、怎么应对前提被更改的情况,以及错误被承认的情况。

要把这些情况的实例喂给模型,让它们学习。

但是模型在时机方面还是欠练,也就是说,它们并不知道该何时执行这些操作。

Schulman表示,这就是强化学习(RL)该出场的地方了。比如,基于人类反馈的强化学习(Reinforcement Learning with Human Feedback,RLHF)。

应用RL,模型就可以学习「行为边界」,学会何时做出何种行为。

而另一个难题,则是检索和引用来源的能力,例如通过WebGPT中所展示的能力,或者最近在ChatGPT的浏览器插件中所呈现的机制。

问题在于,有了复制行为的能力和RLHF,为什么ChatGPT还会产生幻觉?

原因在于问题本身的难易。

虽然上述方法对于简短的问题和答案效果不错,但对于ChatGPT中常见的长格式设置就会出现其他问题了。

一方面,完全错误的答案也不太可能,大部分情况都是错的和对的混在一起。

在极端情况下,可能就是100行代码中的一个错误而已。

在其他情况下,这些信息在传统意义上并不能说是错的,而是有误导性的。因此,在像ChatGPT这样的系统中,人们很难根据信息量或者正确性来衡量输出的质量。

但这种衡量对于旨在训练复杂行为边界的RL算法却非常重要。

目前,OpenAI依托于RLHF的基于排名的奖励模型,该模型能够预测它认为两个答案中哪个更好,但不会给出有效的信号来明确哪个答案好了多少、信息量大了多少或正确了多少。

Schulman表示,它缺乏向模型提供反馈以学习精细行为边界的能力。而这种精细的行为边界,才是有可能解决幻觉的道路。

此外,此过程还会因为RLHF标记过程中的人为出错而变得更加复杂。

因此,虽然Schulman将RL视作减少幻觉的重要方式之一,但他认为仍然存在许多还没解决的问题。

除了前面提到的奖励模型究竟需要什么样子才能引导正确的行为之外,RLHF目前仅依赖于人类的判准。

这可能会使知识的生成变得更加困难。因为对未来的预测有时会导致不那么令人信服的表述。

然而,Schulman认为,知识的生成是语言模型的下一个重要步骤,同时,他认为对未来的预测和给出推理规则等问题的理论构建,是亟待解决的下一类开放性问题。

Schulman说,一种可能的解决方案是,用其他AI模型来训练语言模型。

OpenAI也认为,这种方法对于AI对齐来说,很有意义。

ChatGPT架构师

作为ChatGPT架构师,John Schulman早在2015年还在读博士学位的他,就加入OpenAI成为联合创始人之一。

在一次采访中,Schulman解释了自己加入OpenAI的原因:

我想做人工智能方面的研究,我认为OpenAI这家公司的使命雄心勃勃,并且致力打造通用人工智能。

尽管,在当时谈论AGI似乎有些疯狂,但我认为开始考虑它是合理的,我希望在一个地方谈论AGI是可以接受的。

另外,据Schulman透露,OpenAI将人类反馈强化学习这一方法 (RLHF)引入ChatGPT的想法可以追溯到17年了。

当时,也是OpenAI的成员,曾发表了一篇论文「从人类偏好中进行深度强化学习」就提到了这一方法。

论文地址:https://arxiv.org/pdf/1706.03741.pdf

OpenAI安全团队之所以致力于这项工作,是因为想让自己的模型符合人类的偏好ーー试图让模型真正倾听人类意见,并试图做人类想做的事情。

在GPT-3完成训练的时候,然后Schulman决定加入这股潮流,因为他看到了整个研究方向的潜力。

当被问到第一次使用ChatGPT时,第一反应是什么的时候,Schulman的话语中透露着「无感」。

还记得去年ChatGPT横空出世,让许多人瞬间炸脑。

而在OpenAI内部没有人对ChatGPT感到兴奋。因为发布的ChatGPT是一个基于GPT-3.5较弱的模型,那时候同事们在玩转GPT-4了。

所以在那个时候,OpenAI没有人对ChatGPT感到兴奋,因为有这么一个更强大,更聪明的模型已经被训练过了。

对于未来人工智能下一前沿领域看法,Schulman称,AI在更艰难的任务上不断进步,然后,问题就来了,人类应该做些什么,在哪些任务下,人类可以在大模型帮助下有更大影响力,做更多的工作。

参考资料:

https://the-decoder.com/elon-musks-truthgpt-is-complicated-says-openai-co-founder/

本文(含图片)为合作媒体授权创业邦转载,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。

关键词:

精彩阅读

幻觉?马斯克TruthGPT也搞不定,OpenAI联合创始人直言很复杂

资讯

幻觉?马斯克TruthGPT也搞不定,OpenAI联合创始人直言很复杂,OpenAI如何打击幻觉?

Altman的灵魂拷问:谁来投资长周期、激进型的实体创新?-世界热点

资讯

Altman的灵魂拷问:谁来投资长周期、激进型的实体创新?,华尔街的短期思维影响了VC甚至天使投资人,所有人

【聚看点】疯狂的炸串,还能火多久?

资讯

疯狂的炸串,还能火多久?,炸串品类仍然拥有不错的前景,但毋庸置疑的是,蒙眼狂奔的时代已经过去。

新势力无奈破产,富士康喜提造车工厂一座

资讯

新势力无奈破产,富士康喜提造车工厂一座,美国造车新势力破产,竟然怪富士康?

“跟风”开淄博烧烤,赚了还是赔了?

资讯

“跟风”开淄博烧烤,赚了还是赔了?,在关注与考验面前,他们有的手忙脚乱,有的积极复盘。淄博烧烤热,给

特斯拉Model 3、Model Y涨价;IBM计划用 AI 取代 7800 个岗位;科学家开发AI系统将意念转成文字丨邦早报

资讯

特斯拉Model3、ModelY涨价;IBM计划用AI取代7800个岗位;科学家开发AI系统将意念转成文字丨邦早报,24小时创投大事

王传福的40条思考:一切“技术壁垒”都是纸老虎

资讯

王传福的40条思考:一切“技术壁垒”都是纸老虎,只有掌握核心技术,企业才能在激烈的市场竞争中脱颖而出。

快讯:五一办婚礼有多贵?

资讯

五一办婚礼有多贵?,谁能逃过“婚礼税”?

陆奇的大模型世界观

资讯

陆奇的大模型世界观,这个时代跟淘金时代很像,如果你那个时候去加州淘金,一大堆人会死掉,但是卖勺子、卖

简讯:最聪明的大脑、最火爆的话题——清华大学张亚勤和朱民畅谈ChatGPT

资讯

最聪明的大脑、最火爆的话题——清华大学张亚勤和朱民畅谈ChatGPT,颠覆认知的AI时代与产业机遇。

财富

幻觉?马斯克TruthGPT也搞不定,OpenAI联合创始人直言很复杂

资讯

幻觉?马斯克TruthGPT也搞不定,OpenAI联合创始人直言很复杂,OpenAI如何打击幻觉?

Altman的灵魂拷问:谁来投资长周期、激进型的实体创新?-世界热点

资讯

Altman的灵魂拷问:谁来投资长周期、激进型的实体创新?,华尔街的短期思维影响了VC甚至天使投资人,所有人

【聚看点】疯狂的炸串,还能火多久?

资讯

疯狂的炸串,还能火多久?,炸串品类仍然拥有不错的前景,但毋庸置疑的是,蒙眼狂奔的时代已经过去。

新势力无奈破产,富士康喜提造车工厂一座

资讯

新势力无奈破产,富士康喜提造车工厂一座,美国造车新势力破产,竟然怪富士康?

“跟风”开淄博烧烤,赚了还是赔了?

资讯

“跟风”开淄博烧烤,赚了还是赔了?,在关注与考验面前,他们有的手忙脚乱,有的积极复盘。淄博烧烤热,给

特斯拉Model 3、Model Y涨价;IBM计划用 AI 取代 7800 个岗位;科学家开发AI系统将意念转成文字丨邦早报

资讯

特斯拉Model3、ModelY涨价;IBM计划用AI取代7800个岗位;科学家开发AI系统将意念转成文字丨邦早报,24小时创投大事

王传福的40条思考:一切“技术壁垒”都是纸老虎

资讯

王传福的40条思考:一切“技术壁垒”都是纸老虎,只有掌握核心技术,企业才能在激烈的市场竞争中脱颖而出。

快讯:五一办婚礼有多贵?

资讯

五一办婚礼有多贵?,谁能逃过“婚礼税”?

陆奇的大模型世界观

资讯

陆奇的大模型世界观,这个时代跟淘金时代很像,如果你那个时候去加州淘金,一大堆人会死掉,但是卖勺子、卖

简讯:最聪明的大脑、最火爆的话题——清华大学张亚勤和朱民畅谈ChatGPT

资讯

最聪明的大脑、最火爆的话题——清华大学张亚勤和朱民畅谈ChatGPT,颠覆认知的AI时代与产业机遇。

你做好与AI一起相处了吗?

在我们的读书群,我写下AI不只是聊天工具,甚至不只是效率工具,它将是一种有智慧的生命。

中国链根服务| 城市产业COM(上)

区块链在所有的学科上增加了一个或一组类似“科学”的属性,让各个传统学科变得更加健壮。

天天快讯:文心一言满月就「上班」:企业服务生产力拉满,演示现场人挤人

文心一言“满月”之际,百度召开技术交流会,拿出这样的成绩单:完成4次迭代,大模型推理成本降为原来十分

阿里云“三板斧”开启新周期

阿里云的新周期也许真的来了。

快报:Meta从微软挖来芯片高管,专注硬件设备开发定制芯片

Meta从微软挖来芯片高管,专注硬件设备开发定制芯片。

苹果举行主题为超前瞻秋季新品发布会 AirPodsPro2正式登场

北京时间9月8日凌晨,苹果举行主题为超前瞻的秋季新品发布会,在此次发布会上,备受关注的iPhone 14系列新机、新款Apple Watch Ultra以

微软正为Windows12开发新驱动框架 提升新老显卡性能

Windows 12系统可能会在2024年到来,按照正常的节奏,其开发工作应该早已秘密进行。日前,有开发者从Windows 11最新预览版Build 25188中

华盛顿地铁站首次亮相为视障人士扩展旅行路线

5月25日消息,一款旨在帮助视障人士或盲人行人使用公共交通工具的应用程序在华盛顿地铁站首次亮相。该应用程序名为Waymap,旨在为盲人和视

2022年情况又要变了!华硕高管:今年PC恐怕要供过于求

这两年来,由于疫情导致的居家办公及远程教育需求爆发,一直在下跌的PC市场枯木逢春,2021年更是创下了2012年以来的最快增长,然而2022年情

垃圾佬的心头好!西数新款固态盘SN740曝光

对于DIY垃圾佬来说,散片、拆机件、工包……这些名词怕是并不陌生。本周,西数推出了主要供应OEM厂商的新款固态盘SN740。SN740升级到了第五

虚假宣传、误导消费者 倍至冲牙器关联公司被处罚

后来者要想在激烈的市场竞争中立足,如果可以背靠巨头享受大树底下好乘凉的红利,那自然是皆大欢喜,没有这个福气,也大可凭借自己一步一个