简陋到意外的NavicatLite

这两天实际应用了一下Navicat的lite版本,可能是很多年不用Navicat了,没有对比过,只是感觉这个lite版本也太简陋了。
这个简陋是与DBeaver相比的,比如导出数据时,连导出数据中的日期格式都要设置一下,而DBeaver连文件名中的时间戳都是可以设置的,这应该也是DBeaver臃肿的一个原因。
Navicat之前广受欢迎的一个原因,是导出数据时文件格式可以选择Excel,在lite版本中,这个功能注明了需要升级到专业版,由此可见其重要性。
本来这个对我意义不大的,因为导出的CSV格式文件一样可以处理。但前几天遇到了麻烦,我做的Django应用中默认导出CSV格式文件后,因为数据库编码为UTF8,使用Excel打开是乱码。
还是那句话,如果不是垄断,微软早死了好几次了。

兜兜转转,又回到NavicatLite

最近数据库操作比较密集,主要使用的是DBeaver,基本能接受他的慢和偶尔的无反应,只是最近postgresql的json字段用的多起来,而DBeaver导出的数据,对json进行了转义处理,这样处理的时候需要多一步操作。
昨天闲下来后,想找一个备选的数据库客户端,毕竟DBeaver社区版不支持MongoDB,还需要再安装一个客户端。
这方面Beekeeper是最合适,不但导出json数据干净,而且日常查询数据界面直观,不用手工输入,只是这个查询组合免费版只允许两个,这有些过于小气了。
于是想再换一个,选了一个名气大的DbGate,功能倒齐全,也跟Beekeeper一样支持MongoDB,只是导出json数据依然需要转义处理。
就在困的快睁不开眼时,手机抖音上看到一个视频介绍数据库客户端——很难让人不起疑心他会读取我PC上的访问记录,里面提到Navicat推出了免费的lite版本,而且也是集成了多数据库支持,不再像原先那样各自为战。
试了一下,界面清爽,操作简练,除了json数据仍需要转义,其他都满意,就是它了。
这Navicat兜兜转转十几年,又回来了。

计算机存储大涨价,见多了

前几天朋友从微信上发一个移动硬盘链接,问质量怎么样。我说不错啊,尤其是价格还没有涨价。
最近看IT新闻,市场上内存及SSD价格大涨,据说涨幅超过50%。但好在年初已经将机器升级,短时间内已经没有什么需求,所以并没有太关注。
结果朋友告诉我,那是我上次发给他的链接,再发过现在产品信息,价格已经大涨了。
让他早买不买,现在只能咬牙买,真是买涨不买跌,跟炒股一样了。
不过这内存涨价我见得多了,再厉害能有99年那波厉害?

MongoDB服务器迁移

前天晚上基本没睡,昨天中午忙完回到家本想洗洗衣服,洗澡补觉。但估计是作息混乱,反而睡不着。
既然睡不着,索性开始将原先日立老服务器上面的MongoDB数据备份到新机器上。
虽然睡不着,但脑子却不是十分清醒,数据迁移过程中并不顺利,MongoDB服务器启动不起来,折腾许久,冷静下来分析问题,原来问题不是出现在权限,而是数据库版本不同的格式兼容问题。
删除原目录重新建立并授权后,服务器顺利启动。
后面数据备份导入就简单对了。核对一下数据库,发现从20年开始,还是积攒了不少数据的。
如今天看到一个关于rag的视频所言,最重要的还是那些精简有效的数据。
数据才是根本。

断人财路,送自己上绝路

前几天NVIDIA宣布以50亿美元入股Intel,成为大股东,同时Intel将为NVIDIA定制CPU。
说白了还是集成nvdia芯片的主板,只不过CPU已经沦为了配角。
真是三十年河东三十年河西。
其实,这也是习惯垄断的Intel自己做的孽,而始作俑者则是当年大名鼎鼎的810e芯片。
在这款主板之前,我在市场上看到的主板上,还有品牌机中,有集成ati芯片,有mga的,自由选择度非常高。
等Intel的810e一出现,利用芯片性能加CPU的垄断地位打压一切异己,别的显卡芯片厂的路就堵死了。
现在看,真是自作自受。

大模型时代的隔离

昨天下了火车坐上公交,从大观园到环山路,旁边一位一看就是技术人员的男士,一直在打电话,交流的是某个单位的网络隔离问题。
熟悉的话题,已经十余年了。
原先隔离的信息获取,现在已经早进入到大模型应用时代了,现在再隔离的已经不止是信息了。
网络上前几天看到一个话题,是shadowAI,就是员工在单位提供的大模型之外,最终自主选择的AI大模型。
如果本地大模型既要部署,又要隔离,那信息服务公司的真是不愁业务了。

折腾半天ChatTTS-Forge

最近没有怎么折腾本地部署大模型。除了最近烦心事多,主要还是在验证了“有多少人工智能,就有多少人工”这个现实后,感觉下一步大模型应用无非就是堆硬件、叠人工了。
因为用友系统出了点问题,昨天一时闲来无事,便将ChatTTS-Forge安装到恒源云的GPU服务器上了。
没想到大半年没用,原先一路畅行安装运行的系统状况百出,不知不觉大半天时间搭进去了。
问题主要出在Pyton版本上,3.8的运行不了,3.12的问题多多,最后无奈换成3.11版本的虚拟环境,这才运行起来,不过ChatTTS模型也需要进行相应调整才能正常将文本转换成语音。
ChatTTS模型的好处是已经集成了不少语音库,下一步再测试一下其他模型,自己生成一下语音库。

忽悠人的780M

有一段时间了,短视频还有微信的广告持续不断给我推广告,是AMD锐龙7系列的笔记本,价格优惠,算上国补16G内存加512G硬盘,2.5K的高清屏都快跌破3000元了。
我有点动心,主要是看中广告里面提到的760M的apu显卡,想买来测试一下其NPU在lmstudio下运行7B大模型性能如何。
但因为现在的笔记本都用的好好的,也没有更换的需求,也就一直看着,一直继续动心着。
今天看到京东广告里面多了一个少见的品牌,价格略高,内存已经到了32G,并且专门提到了笔记本的NPU性能。
这让我重新研究了一下个笔记本的参数,发现原来其apu都叫780M,但具体到型号,差别巨大,只有第二位是8的,诸如7845,才有NPU辅助运行AI。
看来原先笔记本大降价,应该是AMD给厂家巨大的优惠,或者,就是厂家又被AMD忽悠了。

开工ERPNext外挂

昨晚下了一阵急雨,关窗继续睡,早上居然给冻醒了。
既然醒了,就开工做ERPNext的外挂系统。忙到眼痛腰酸算是把系统数据库结构弄清楚了,于是出去改善一下生活。
现在技术进步太大了,不用说最初学习数据库,即便是第一次做odoo外挂的时候,都被一本正经的教导,数据表能分则分,通过字段关联,低耗而高效。现在看,ERPNext中的数据表,能放在一个表里面的统统放进去。毕竟现在无论机器性能还是存储容量,都已经不是问题了。
而这样的好处就是看数据,可以一目了然,不用再表内猜来猜去,表间查来查去。
不过,当年大厅里“某某某,快做个分录”养成的习惯,还是时不时误导思维,浪费了时间。

模型,小有小的好处

早上起来在抖音看到一个视频,是介绍SLM小模型的,这个SLM自然是针对LLM大模型而言的。
这个视频的源头是gemma推出了开源的小模型270m,这个模型只有不到300M,是小的不能再小了,应该针对的是手机应用。
视频中关于小模型的介绍,倒是跟我最近对小模型应用总结差不多,那就是小模型的本地部署是有实用价值的。主要针对的就是目的明确的批量处理任务,而非那种专业性的求索性应用。
同时本地部署模型可以处理本地资源,并确保用户隐私。
最后,那个视频的依据除了gemma3,还有英伟达的一篇重文本轻公式的小模型应用的论文。
所以,小模型的最为关键的优势不言而喻:成本低。