GPT-2

更新时间:2023-11-10 13:51

GPT-2是OpenAI 在2019 年推出的第二代生成式预训练模型。

产生背景

之前的GPT-1 存在明显的问题,一是数据局限性,GPT-1 是在互联网上的书籍和文本上训练的,对世界的认识不够完整和准确;二是泛化性依然不足,在一些任务上性能表现就会下降。

发展历程

GPT-2是OpenAI 在2019 年推出的。

主要功能

GPT-2 的出现,进一步证明了无监督学习的价值,以及预训练模型在下游 NLP 任务中的广泛成功,已经开始达到图灵测试的要求,有研究表示,GPT-2 生成的文本几乎与《纽约时报》的真实文章(83%)一样令人信服。

免责声明
隐私政策
用户协议
目录 22
0{{catalogNumber[index]}}. {{item.title}}
{{item.title}}