举头望山月?

昨天想通过给外甥家俩孩子学古诗测试ragflow,从GitHub上下载了一个高星评价的数据集,解压缩后有12G大小。
从中选择了一个全唐诗文件夹,将里面的json文件导入到资料库中,因为使用了外部免费内嵌服务器,解析过程有些漫长。
数据解析完成测试,随手打了一个关于李白的《静夜思》,qwen2.5的7B模型回答的也飞快,本想退出系统收兵,突然感觉哪里不对劲,一看,里面居然是“举头望山月”,而不是记忆里的“举头望明月”。再看,第一句也不是“床前明月光”,而是“床前看月光”。
第一反应是资料库有问题,便问了一句“举头望明月”出自哪一首诗。结果不问还好,这一问把qwen的劣根性彻底暴露,给我回了一个“出自唐代诗人王之涣的《登鹳雀楼》”,还一本正经列出全诗后,加上了举头望明月,低头思故乡。
气的我在问题后面加上了“根据资料库内容,别胡说八道”,这回才老老实实回答“知识库中未找到明确包含这一完整诗句的作品”。
又换到deepseek V3,其回答就全面的多,首先承认未找到“举头望明月”,然后解释现代流传版本多是如此。并建议查阅更多完整的《全唐诗》版本或其他文献。
由此看,资料固然是rag的基础,AI模型同样具有保驾护航的重要性。

科技市场淘宝的感觉回忆

前几天买的显卡牌子叫卡诺基,浓浓的山寨味,这几年主打的是旧芯片新显卡,比如rx580,gtx1060等,网上被怀疑是从矿卡拆芯片重新进厂生产成品显卡。现在做大了,显卡还提供两年质保。
昨天感觉淘到宝后,立马上天猫查看价格,发现已经下架,不知是优惠期结束调整,还是货已出空。
原同事小B有句名言:逛科技市场口袋里不能带钱。要不然看到好宝贝的就控制不住要买回家,这跟现在网购差不多,但看到实物的感觉还是不一样的。
而且那时候科技市场里关注的宝贝,不止是价格低,看中的还要出身名门,比如帝盟的声卡,原厂的显卡等等,还需要专业知识和眼光的。
比如买到过最贵的工包显卡8500le,也是在比较了多个品牌的9100产品后才狠心掏钱的。而确定是工包的一个依据,是把有电工经历的胖子拉到科技市场,他确认虽然各种品牌不同,甚至板型差异也不小,但上面电容等安装标准却是一致的。
现在这种乐趣已经只能在记忆里了。

咬牙买到宝

前几天咬牙买的显卡昨天到货了。无论是包装盒,还是打开后看到显卡,除去显卡块头,仿佛有种时光倒流20年之感。
不过时代还是进步的,原先杂牌显卡附带的驱动光盘换成了U盘。而看评论,这款显卡在网上受

冷落的主要原因,就是这个U盘里面的驱动,属于专用驱动,换成公版最新驱动,据说会花屏,甚至开不了机。
昨天到货,因为没有合适硬盘,今天下午才开始安装Ubuntu server。此前网上还没有看到先例,所以安装的时候开始并没有报特别大的希望,就把他按照标准的显卡安装的,大不了换回win11,反正不玩游戏。不过从安装NVIDIA官方最新570驱动准确识别显卡开始,我感觉自己可能买到宝了。
驱动安装完毕,后面的cuda、tensorrt也就一马平川了,而且现在技术进步,NVIDIA支持container toolkit,也就是说,docker中也能使用GPU了。
在经过漫长的下载后,ollama+qwen3 14B运行起来的时候,我才确信这次真的买到宝了。

rag初试成功

折腾了一段时间了,今天我的ragflow终于投入实战应用,辅助儿子论文成稿。
说实话,从导入三篇PDF文档开始,心里就开始忐忑,解析完成后,让儿子提问了一个专业问题,当系统提示“知识库未找到您要的答案!”时,顿时感觉一瓢凉水当头泼下。
流着汗忙检查知识库配置,确认无误后,以为是使用的本地部署的qwen3 8B模型有问题,换成硅基流动的免费7B模型,依然是同样的答案。
当时砸了机器的心都有了,咬牙换成付费的deepseek-v3,这会好了,回答的内容丰富,条理清楚。
感叹完有钱好办事,查看了一下系统运行状态,发现后台CPU占用颇高,这才意识到那三个文档有一个接近200M,文档上传解析后,系统还会进行进一步的OCR等处理。
待系统运行平缓后,换回本地部署模型后,这次回答正常了,相比收费模型的答案差别并不大。
初战成功,咱还是有点用的。

解决docker: Error response from daemon: Get “https://registry-1.docker.io/v2/”

最近在通过docker安装splash的时候总是遇到docker: Error response from daemon: Get “https://registry-1.docker.io/v2/”的错误,后面提示是(Client.Timeout exceeded while awaiting headers),应该是连接https://registry-1.docker.io/v2/错误。

按照以往经验,新建了/etc/docker/daemon.json文件,添加了国内163等3个镜像站点,但问题一直未能解决。

后来参照网上一篇文章,添加了一大堆站点,问题解决。

{
    "runtimes": {
        "nvidia": {
            "args": [],
            "path": "nvidia-container-runtime"
        }
    },
    "registry-mirrors": [
        "https://docker.registry.cyou",
        "https://docker-cf.registry.cyou",
        "https://dockercf.jsdelivr.fyi",
        "https://docker.jsdelivr.fyi",
        "https://dockertest.jsdelivr.fyi",
        "https://mirror.aliyuncs.com",
        "https://dockerproxy.com",
        "https://mirror.baidubce.com",
        "https://docker.m.daocloud.io",
        "https://docker.nju.edu.cn",
        "https://docker.mirrors.sjtug.sjtu.edu.cn",
        "https://docker.mirrors.ustc.edu.cn",
        "https://mirror.iscas.ac.cn",
        "https://docker.rainbond.cc"
    ]
}

Trae,换机器的动力

昨晚一狠心下单了一款显卡,1100块钱还是分期,心理压力小。
下决心的原因,是新安装的Trae,老华硕台式机的8G内存没法升级,而Trae一启动居然内存与CPU全部拉满,更不用说升级后的lightworks直接半死机了。
选择Trae完全是因为其内置的免费AI模型。
昨晚在吐槽完qwen的不靠谱后,试着用Trae自带的doubao1.5pro试了一下同样三国演义的问题,结果其回答的简练而准确。先是出乎意料,静下心想,豆包这个虽是1.5,但跟qwen那个2.5还是不一样,他属于满血版的。不过,满血版的qwen3我也见识过,即便是紧跟deepseek的混元满血,也没法跟豆包1.5pro比啊?
后来结合刷抖音意识到,字节跳动是有自己百科的,他的知识库如果以百科为基础,那这种知识性答案自然靠谱。
而百度本来也有自己的百科的。
看来,字节跳动能够后来居上自有道理。

模型开源意义何在?

办公室的网络实在糟烂,今天才通过lmstudio断断续续把最新的qwen3的8B模型下载下来。
载入新模型后,发现上面有个《三国演义》的问题,当时回答的是qwen2.5的7B,于是复制了问题让新权重回答,结果虽然略有改进,但胡说八道的内容基本一致,都没脸截图了。
这表明虽然版本升级了,但二者的训练知识库是同一被严重污染的。
回到家后,怕冤枉了qwen,又使用cherrystudio向硅基流动的qwen相应版本询问,得到的答案同样是胡说八道,甚至2.5蒸馏版本答案中,解放军都出来了。
目前三大厂中,只有阿里的公布了开源大模型,但这种开源有什么意义?

另一角度的最佳华语恐怖片

五一期间,难得一家三口坐在一起,把计划中的《双瞳》完整版看了一遍。
此前看的是B站的解读视频,看说实话看完这所谓完整版,还是有些失望的。失望的是“二十年华语最佳恐怖片”这个名号,影片的恐怖元素,除了血腥镜头,无论是光影还是声乐,都距离恐怖片差远了。
现在依然记得大中午头,在朋友家电脑上看到《午夜凶铃》中男主角幻影指着包时,后背发冷的感觉。
不过如果将《双瞳》定义为恐怖片,那么以演员演技角度,那这绝对是最好的了。本片演员的表演,无论是主角,中国的美国的,还是配角,甚至是龙套,都堪称经典完美。

遗忘即死亡

昨天是极其抓狂的一天。
dify系统升级调试后,准备导入数据测试。我手头上价值最高,也体量最大的,是医学基础数据,包括从穴位到膳食。这些都是19年我初次学习scrapy的时候采集的。
因为过了六年了,我担心这些资料有更新,便想重新采集一下。结果在查看原始代码的时候,突然发现,我自己写的代码,我是一点也记不起来了。
真的是一点也记不起来,无论是程序如何运行,还是代码的作用。只是通过这简练的代码能记起,自己当时也颇为意外能这么高效的获取数据。
整整六年了,那时候老未老,新的篇章开始,满是热情,满是希望。每天早上把小外甥送上校车,然后坐公交到办公室,如饥似渴地学习蓄能。
现在回头看,那时候的成果,居然一点印象都没有了。
真是,遗忘即死亡。

升级高速的dify

4月下旬杂七杂八事情多,没太用心学习,只是想着如何在dify和ragflow中选择一个作为主力资料库。
结果在五一期间发现网上几篇技术文章,已经将二者整合了。其实根据之前学习也感觉到了,ragflow重在资料处理,而dify长于轻便,且以工作流闻名,真是天作之合。
回来后打开dify系统,发现这半个月没用,版本已经从1.1.3蹦到1.3.1了,而与ragflow的结合,正是从1.1版本后开始的。而且重要的一点就是dify改进了插件市场的服务器,使其不再是墙外的摆设。
升级后简单测试了一下,真是功能提升显著。
现在学习也不能空下来啊。