您的位置:首页 > 科技 > 能源 > 族蚂建站怎么样_鸡西百姓网_调研报告万能模板_ttkefu在线客服系统官网

族蚂建站怎么样_鸡西百姓网_调研报告万能模板_ttkefu在线客服系统官网

2024/10/14 11:15:41 来源:https://blog.csdn.net/qq_39006282/article/details/142726119  浏览:    关键词:族蚂建站怎么样_鸡西百姓网_调研报告万能模板_ttkefu在线客服系统官网
族蚂建站怎么样_鸡西百姓网_调研报告万能模板_ttkefu在线客服系统官网

这是一个较新颖的方法,一般chunk切1024或51或按句切分的时候,就怕代词的所指被切掉,embedding时就自然召回不到了。延缓该问题的方法有覆叠chunk,但是还是一刀切,不够solid。
一个聪明的方法是,把一整个文章扔进embedding,经过几层前向,再按token位置切分,再把每段继续embedding。这个方法就叫late chunk,它希望几层后,各token的语义已经提取较好了,不再缺少信息了,这是模型本身的功能,所以late chunk是迎合模型功能的改动。效果如何不知道,但是是一个聪明的解决办法。


chunk的前后顺序有时存在一些信息,特别是对于有结构的文章,你想得到结构化的回答,就必须保持原文顺序,但是你又希望让高相似度chunk排前面,这是针对大模型att特点的优化。NVIDIA对此的做法是,chunk顺序按原文,但是chunk开头标上相似度,以让llm知道哪一段更能回答问题,就这样兼顾了两方面。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com