您的位置:首页 > 房产 > 建筑 > 西安到成都_html网页制作兼职平台_广州seo网站推广公司_百度知道问答平台

西安到成都_html网页制作兼职平台_广州seo网站推广公司_百度知道问答平台

2025/4/21 12:03:29 来源:https://blog.csdn.net/ggaofengg/article/details/145741882  浏览:    关键词:西安到成都_html网页制作兼职平台_广州seo网站推广公司_百度知道问答平台
西安到成都_html网页制作兼职平台_广州seo网站推广公司_百度知道问答平台

https://zhuanlan.zhihu.com/p/678196390

LLM context 长度,是模型在保障准确性的前提下,支持的最大输入长度。

一般来说,训练时用4k长度训练,那么推理时,4k以内的长度效果肯定是有保障的。8k以内的话,可以通往一些技术,如位置编码扩展等技术,让准确性基本不降低,或者降低幅度较小。超过训练长度太多,准确性就降低比较大了。

另外,一般情况下,训练和推理的运算量与长度的平方成正比例。有一些技术可以改善这方面。

重点要理解,LLM的结构参数中,是不包含context长度的,所以不够输入token多少,都是可以计算的。只是对运算量和准确性有影响。

此外,4000 token ,相当于 3000 个英文单词或者 2000 个汉字

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com