第113章 意外的邀请(第1/6页)
作品:《重生之a股教父》相比效果显著,非常出色的老虎算法,移动端优化排序算法的效果要稍差一些。
因而孟繁岐并没有急着推动上线测试,而是等待结合ai语言解释模型的那一个更新准备一起推动。
目前针对语言问题所采用的通常是循环神经网络(rnn)和长短期记忆办法(lst),这两个工作都是上个世纪末的老办法了。
这两种方法简明好用,因而一直兴盛到2017年左右。
直到transforr,也就是chatgpt的t方法出现。
通常来说,大家都认为transforr方法之所以能够迅速取代rnn和lst,主要是因为它更方便并行进行。
在多个设备上容易做到并行,这件事最核心的意义便是让规模庞大的版本成为可能,这也为后来chatgpt这样的究极巨无霸模型奠定了基础。
“其实老版的rnn也有办法可以把并行做得很好,领域内对这件事有很大的误解。”孟繁岐皱着眉头思索道。
原本时间线,transforr出来之后,所有人都放下了手头老方法的研究,拥抱了t方法。
可18年实际上有人专门做了rnn的高度并行,只可惜已经太迟了。