发布时间:2024-11-19 04:29:07 来源:金山培聪网 作者:百科
随着大模子掀起新一轮 AI 热潮 ,教科人们开始思考 :大模子的书级数据强盛能耐源头于甚么?
之后 ,大模子不断在由不断削减的熏染小模「大数据」来增长 。「大模子 + 大数据」彷佛已经成为构建模子的微软尺度范式 。但随着模子规模以及数据量的超强不断削减,算力的引热议需要会快捷缩短。一些钻研者试验探究新思绪 。教科
6 月 ,书级数据微软宣告了一篇题为《Textbooks Are All You Need》的熏染小模论文 ,用规模仅为 7B token 的微软「教科书品质」数据磨炼了一个 1.3B 参数的模子 ——phi-1。尽管在数据集以及模子巨细方面比竞品模子小多少个数目级 ,超强但 phi-1 在 HumanEval 的引热议 pass@1 上抵达了 50.6% 的精确率,在 MBPP 上抵达了 55.5% 。教科
phi-1 证实高品质的书级数据「小数据」可能让模子具备精采的功能