本地部署deepseek的rag任重道远

今天抽空测试了一下本地部署deepseek的rag性能,或者说可靠度。
测试的依然是那个问题:”《三国演义》中身长七尺,细眼长髯的是谁?”
出乎意外的是,通过Python的相关库操作deepseek的32b模型,情况糟糕如故,一会诸葛亮,一会关羽的。
后来转到Windows下的客户端,cherry studio功能基本是摆设,而anythingLLM则表现亮眼,在调整了内嵌模型的参数后,deepseek7b连续给出了简要明确的答案。
就在高兴之余,看到客户端右上角有个升级按钮,便进行升级期待其有更好表现。
谁知经过漫长的下载安装后,anythingLLM新版本变弱智了,开始胡说八道,竟然还给我生造出一个三国名医出来。
果然如我所料,大模型的RAG任重道远,而且与内嵌模型及向量数据库的配置、管理有着重要的关系。

Leave a Reply

您的邮箱地址不会被公开。 必填项已用 * 标注

You may use these HTML tags and attributes:

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>