 <?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-CN">
		<id>http://wiki.sseuu.com/index.php?action=history&amp;feed=atom&amp;title=GPT-3</id>
		<title>GPT-3 - 版本历史</title>
		<link rel="self" type="application/atom+xml" href="http://wiki.sseuu.com/index.php?action=history&amp;feed=atom&amp;title=GPT-3"/>
		<link rel="alternate" type="text/html" href="http://wiki.sseuu.com/index.php?title=GPT-3&amp;action=history"/>
		<updated>2026-04-03T23:10:50Z</updated>
		<subtitle>本wiki的该页面的版本历史</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://wiki.sseuu.com/index.php?title=GPT-3&amp;diff=119394&amp;oldid=prev</id>
		<title>江南仁：创建页面，内容为“GPT是Generative Pre-training Transformer的简称，是由Alec Radford编写的语言模型，2018年由埃隆·马斯克的人工智能研究实验室OpenAI发布...”</title>
		<link rel="alternate" type="text/html" href="http://wiki.sseuu.com/index.php?title=GPT-3&amp;diff=119394&amp;oldid=prev"/>
				<updated>2023-01-27T11:52:25Z</updated>
		
		<summary type="html">&lt;p&gt;创建页面，内容为“GPT是Generative Pre-training Transformer的简称，是由Alec Radford编写的语言模型，2018年由埃隆·马斯克的人工智能研究实验室OpenAI发布...”&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新页面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;GPT是Generative Pre-training Transformer的简称，是由Alec Radford编写的语言模型，2018年由埃隆·马斯克的人工智能研究实验室OpenAI发布。 &lt;br /&gt;
&lt;br /&gt;
它采用了生成式语言模型（两个神经网络通过竞争相互完善），通过对不同的书面材料集与长篇连载文本的预训练，能够获取世界知识并处理长程依赖关系。&lt;br /&gt;
GPT-2于2019年2月宣布，是一个无监督的转化语言模型，它是在800万份文档上训练出来的，共40GB的文本，来自通过Reddit提交分享的文章。埃隆·马斯克并不愿意发布它，因为他担心它可能被用来向社交网络发送假新闻。&lt;br /&gt;
&lt;br /&gt;
2020年5月，OpenAI发布了GPT-3，这个模型包含的参数比GPT-2多了两个数量级（1750亿vs 15亿个参数），它比GPT-2有了极大的改进。&lt;/div&gt;</summary>
		<author><name>江南仁</name></author>	</entry>

	</feed>