章节目录 第53章 ·驯化(五)(2 / 2)
作品:《抓到你啦》而且,他们还天天拍丧尸片。
这不是脑子有病吗,要是钱多的花不完不如送给自己好了……
还是说……
楚月的眼神闪了闪。
有些国家有生化武器她是知道的,甚至拥有专门的实验室。
他们的野心,不言而喻。
《第二世界》最早就是用与真实世界1:1来吸引玩家注册购买头盔的。
这个副本的世界或许在自我演化的过程中,有了不一样的未来也不一定。
毕竟在2060年,ai已经发展到了一个恐怖的地步。
最开始是无人在意的大模型。
所有词成为了一个点,就像世界上任何一处的经纬一般,只有有两个数值,就可以精准的找寻到所处的位置。
在大模型里,每个词成了词向量。
就比如狗这个词,与之最相近的就是猫,猪,牛,马等。
而在此之外,还有距离更远一些的词。
当然,它和狗组成有意义的词的概率,就更低了。
这些词的相关性,是基于维基百科的数据统计得来的。
显然,每一个词都会被一堆无意义的词围绕。
那么想让大模型智能化,只能先将数据量堆上去再说。
每个词在大模型的n维空间里,都有自己的位置。
而决定这个词的真正意思,由上下文来决定。
但这个词围绕的量太大了,怎么办呢,在当年最初的时候用了一个变压器transformer。
理解人们说出来这句话的意思,将每个字都向量化。
假设是十个字,那么就生成10个768个数字的数列。
然后喂给transformer,输出后,再输入给第二层transformer,如此重复,不断地深化理解。
一共96层。
简单说就是每个词成为768个数字,穿越96层,每层9216次操作。
但是在后来,一个词的向量从768升级到了个数字的数列。
然后重复96次,数据量直接爆炸到人类无法想象的纬度。
其实在了解大模型的时候,楚月已经不相信人脑是自然进化而来的了。
一个数列的向量词,在进入第一层transformer之后,中间的隐藏层有个神经元。
也就是说,在进入第一层transformer再出去,已经获得了12亿个权重的参数。
可怕吗,这才第一层,还有95层。
最后出来的结果,有1750亿个。