安装Hermes

昨天显示器到货后就开始安装Hermes。
安装很简单,但过程很漫长,依然是国内网络的问题,主要卡在GitHub的访问上。安装完成后的界面似乎时光倒流,回到了三十年前的CRT显示器面前。
在设置连接了本地gemma4大模型后,试着做第一个skills,从从一个网站爬取京剧剧本。选择这个网站,主要因为这是一个老网站,以现在的标准看,网页简陋而不规范。
过程很不顺利,Hermes爬取的网页开始是缺胳膊少腿,后面则是把无关的HTML元素也爬取下来。我只得一次次纠正提出修改意见。
别说,这Hermes态度老好了,每次都诚心接受错误,表明决心,言语中一再表示这是“最后一次”,让我有当年辅导家里某位小朋友做作业的无力感。
换成qwen3.6,结果还不如gemma4,直接罢工。
于是狠狠心,切换到deepseek v4的flash版,它分析原爬虫程序后指出了问题所在,并进行了修正,完美解决。
看了看费用,花了7分钱。
当然,这是在很多低效率沟通的基础上,如果是那些重复冗余的工作,花的钱就不会这么少了。这也是我此前对龙虾类agent不是很感兴趣的原因:自己有编程能力解决,手工操作未必低效。
题外话,通过使用Hermes发现自己果然是穷鬼出身,因为在使用网页搜索时才知道,原来Hermes就是大名鼎鼎的爱马仕。

首购AOC显示器

最近在用的Acer笔记本,是18年买的,当时图优惠,估计生产年代更早,得小十年了。
笔记本用起来还好,当年的初代katago就是在他上面彻夜大战leelazero,但就是显示器指标实在是差,最近用惯了高清显示器,现在看他的显示器时间长了泪水都能流下了。
换显示器犹豫了很久,先是买不买,后来是买27还是23的,昨晚感觉实在不能再等了,再等这边电梯换装可不想搬上楼了,看到AOC的优惠,还是下单了。
今天显示器到货,箱子比优派小不少,如果上次买的是AOC,估计就不会摔得那么惨了。
买AOC的一个原因是他居然在显示器市场上排名第一了。
当年,谁看得上他啊。

deepseek v4发布,略微失望

昨天deepseek v4发布,我们自己的服务器在停机近一年后,也开机联网了。
ollama升级费了不少周折,但随后下载qwen3.6的35B以及gemma4的26B模型速度非常快。
运行模型后照例询问了一个京剧问答,让其对某剧目的人物进行评价。qwen依然拉胯,令人意外的是,随后老外gemma的回答,没有像qwen那样东扯西扯言多露怯,反而从“哲学”高度进行分析、评价,反而找不出大毛病。
然后登录deepseek的官网,询问同一个问题。在这么多国内外大模型中,deepseek v3是唯一一个回答完美的,这让我不得不怀疑其知识库的来源。
不过让人失望的是,v4版本的知识库虽然更新到25年下半年,但回答的问题内容单薄,且存在误差,可以说是不进反退,不知是否因为官网默认使用的是flash版本而非Pro。
此外,v4的回答同gemma4一样,回答中重侧逻辑而淡化知识,这估计也是开源大模型的趋势吧。

生图模型简单比较

前天OpenAI发布了GTPimage2,吹捧声颇高,这时点发布,应是想挽回点因关闭Sara丢失的面子。
今天看到自己在用的API网站已经支持GTPimage2,价格为banana2的六折,于是试了一下图形转换。相比banana2还是差一些,更不用说bananaPro。可能与image的版本也有关系,后续的VIP版效果可能更好一些。
抛开图片识别和文字理解,image2的风格更为写实,这与bananaPro的华丽感差异尤其明显。
此外,又测试了一下grok。虽然只是免费版,grok的效果却让我颇感意外,他的风格偏向bananaPro,但又在细节上更为细致写实,值得期待。

苹果换帅

最近苹果换帅,特努斯接替库克成为新CEO。
事出略显突然,最近看网上新闻,无论是IT圈还是财经圈,唱衰苹果的评论多起来,似乎苹果到了生死存亡的关头。
哪有这么严重。
只要有手机这基本盘在,苹果的日子就依然“烈火烹油,鲜花着锦之盛”。就像乔布斯重回苹果之时,人家日子其实也很滋润。
但苹果又不得不改变,选择硬件起家的特尼斯应该是要在AI时代硬件软做。
苹果的硬件并不落后,但软件生态却薄弱甚至堪称惨淡,M4在一些应用中只能依托OpenCL达到gtx1060的性能,更不用说本地大模型的应用了。
不过,看看微软,舒坦日子过惯了,想突破,也难。

上下文管理低效问题

近日,Anthropic切断第三方框架(比如OpenClaw)通过Claude订阅服务的调用通道,引发行业震动。

Anthropic官方解释称,有重度用户每月仅支付200美元订阅费,却消耗了价值5000美元的算力资源,给Anthropic带来巨大成本压力。

小米MiMo大模型负责人罗福莉随即发文点评米“第三方框架因上下文管理低效,产生的Token消耗是原生框架的数十倍”。

这个评论的很到位,这不止是OpenClaw的问题,也是所有AI应用的问题。上下文管理本身就各说各有理,模型方如Claude认为要是依靠大模型,而向量数据库方则强调加强数据的管理。

现在第三方框架的加入,更是混乱了。

左右不分,AI的认知混乱

昨天做了一个视频,提示词中强调人物坐下后脱下自己的靴子,然后重新穿回去。结果生成后,角色是脱下左脚靴子,然后穿回到自己右脚。
开始觉得这AI实在是不靠谱。
后来我考虑到,AI犯错可能因为他对人物跟观众的视角出现了错乱。这就像小孩子小时候跟人面对面交流的时候,分不清自己和对方左右手一样。
又查看了一下AI的agent记录,果然,里面记录的是“观众视角的左侧是她的右脚,右侧是她的左脚。她弯腰抬起自己的右脚(观众视角左侧的脚)”。
一旦AI真正能代入角色,那就是一个大的阶段性进步。
但,那样可能也意味着AI的觉醒了。

值得期待的wan2.7

在接触了banana后,没有怎么犹豫就购买了国内的API服务,虽然banana,主要是Pro版还存在一些认知问题,这不排除是中英文翻译造成的误差,但总体而言,banana已经做的足够好了。
昨晚看到新闻阿里推出了万象2.7版本。之前在网上看到评论,对其前一版本2.5多有微词,抱着试一下的心态,用免费赠送的积分做了几个与banana相同的转换。
结果还是有些出乎意料的,万象的出图整体已经非常好,基本与banana2水平相当。因为免费只能生成2K图片,以此与bananaPro相比,总体差距不大,以至于看总图我以为万象用了banana的模型,差距主要在细节上。
希望阿里在这条道上坚持下去,不要四面出击有枣没枣打两杆子,时不我待了。

再次被banana震撼

因为被即梦的seedance震撼,于是开始学着做视频。这个过程中发现,视频的静态模型,无论是人物还是背景,都非常重要。
但即梦自带的文生图和图生图效果并不让我满意,于是从昨天开始我试着沾点谷歌的便宜,用每天的banana2的免费额度,试着用喂给即梦的连环画图片生成影视剧图片。
结果,再次被banana震撼到。
如果是seedance的震撼源自从无到有,而banana则是将现有资源,提升到一个难以想象的高度。
将banana介绍给在即梦做出大片级视频的网友,他开始反应是banana相比即梦提升了一个档次,再试后,他收回了评价,直接开始转用banana。
这一周,感觉自己面对AI的进步,真的迟钝麻木了。