本文主要是介绍从零实现诗词GPT大模型:GPT是怎么生成内容的?,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
专栏规划: https://qibin.blog.csdn.net/article/details/137728228
再开始编写GPT之前,我们得对GPT是怎么生成内容的有一个大致的了解。目前的神经网络我们大多都可以看成是一个黑盒
,即我们把数据输送给网络后,网络给我我们输出,我们可以不用关心这个黑盒
里到底是怎么实现的,但是我们的目标是从零写一个类GPT
模型,所以这里我们先对GPT生成内容的过程做一个大致的介绍。
一、GPT的输入
首先,神经网络是不可以把类似过年好
这样一句话直接输入到网络中的,而是需要对一句话进行编码变成数字后再输入网络,GPT是使用了一种叫做bpe
的算法将文字映射成数字的,这里我们不去讲bpe
是怎么实现的,我们可以使用openai提供的tiktoken
库进行文字编码,感兴趣的可以去github上查看tiktoken
的源码:https://github.com/openai/tiktoken。
首先,我们安装tiktoken
库
pip3 install -i -i https
这篇关于从零实现诗词GPT大模型:GPT是怎么生成内容的?的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!