新闻动态

行业新闻企业新闻雷火电竞

ChatGPT能否取代Google、Baidu,成为下一代搜索引擎?一文了解最近火出圈的ChatGPT

雷火电竞

前 言

OpenAI这家公司又放大招了,继发布GPT 、下代GPT2和GPT3模型后,本月初发布了ChatGPT模型【也被称为GPT3.5】,结合大家的搜索测试效果来看,该模型效果确实很震撼,在人工智能圈子引起了不小的轰动。在AI发展相对处于低谷期的引擎今天,如此震撼的模型发布出来,确实为该行业带来一阵暖风,本文就详细解读一下该模型 。 chatgpt,文解AI,人工智能,聊天机器人,女友聊天机器人,在线ai对话,二次元聊天官方并没有公开ChatGPT的原始Paper,但提到 InstructGPT 是该模型的兄弟模型,因此,本文主要来解读InstructGPT模型。

相关模型解读 【GPT】Improving Language Understanding by Generative Pre-Training 【GPT2】Language Models are Unsupervised Multitask Learners 【GPT3】Language Models are Few-Shot Learners

部分测试截图

chatgpt,最近AI,人工智能,聊天机器人,女友聊天机器人,在线ai对话,二次元聊天chatgpt,AI,人工智能,聊天机器人,女友聊天机器人,在线ai对话,二次元聊天

InstructGPT 模型解读

摘要

把语言模型做大并不能本质上让它们更贴合用户的意图 。例如,大型语言模型可能生成不真实、火出有害或对用户没有帮助的下代输出 。换言之,这些模型与它们的搜索用户并不是对齐的 (Aligned) 。本文提出了一种方法,通过使用人类反馈进行微调,使语言模型在广泛的引擎任务中与用户意图保持一致。我们从一组由人工撰写以及通过 OpenAI API 所提交的文解提示 (Prompt)开始,整理了一个人工给模型作出示范的数据集,并将其应用到微调GPT-3的监督学习任务中去 。然后,我们采集了模型输出的最近排名,并利用该数据集,结合人类反馈进行强化学习,进一步微调这个监督模型 。我们将最终的火出模型称为 InstructGPT。在对提示分布的下代人类评估中,尽管参数量少了 100 倍,13 亿参数的 InstructGPT 模型表现仍要好于 1750 亿参数的 GPT-3 。此外,InstructGPT 模型在提高真实性并减少有害输出的搜索同时,在公共 NLP 数据集上表现出了最优的性能 。尽管 InstructGPT 仍然会犯一些简单的引擎错误,但我们的研究结果表明,通过人类反馈微调,将语言模型与人类意图对齐是一个有前景的方向。

引言

chatgpt,AI,人工智能,聊天机器人,女友聊天机器人,在线ai对话,二次元聊天模型整体框架: chatgpt,AI,人工智能,聊天机器人,女友聊天机器人,在线ai对话,二次元聊天在“人工标注数据+强化学习”框架下,具体而言,InstructGPT的训练过程分为以下三个阶段:

如果我们不断重复第二和第三阶段,很明显,每一轮迭代都使得LLM模型能力越来越强 。因为第二阶段通过人工标注数据来增强RM模型的能力,而第三阶段,经过增强的RM模型对新prompt产生的回答打分会更准,并利用强化学习来鼓励LLM模型学习新的高质量内容,这起到了类似利用伪标签扩充高质量训练数据的作用,于是LLM模型进一步得到增强 。显然,第二阶段和第三阶段有相互促进的作用,这是为何不断迭代会有持续增强效果的原因。