昨晚躺下后脑子里也是关于rag的问题。
早上起来查了一下相关资料后,确认之前遇到的本地资料库效率,应该与向量嵌入模型有很大关系。
于是开机重建资料库,使用硅基流动的免费嵌入模型,对同一文章进行向量化导入,然后使用同一qwq模型询问同一问题。
果然,这次不但问题的答案准确,而且推理过程也精简高效了很多。
目前硅基流动的向量化服务有免费、收费两种,而腾讯是按照token收费,看来这个业务需求量还是不小的。
昨晚躺下后脑子里也是关于rag的问题。
早上起来查了一下相关资料后,确认之前遇到的本地资料库效率,应该与向量嵌入模型有很大关系。
于是开机重建资料库,使用硅基流动的免费嵌入模型,对同一文章进行向量化导入,然后使用同一qwq模型询问同一问题。
果然,这次不但问题的答案准确,而且推理过程也精简高效了很多。
目前硅基流动的向量化服务有免费、收费两种,而腾讯是按照token收费,看来这个业务需求量还是不小的。