上下文管理低效问题

近日,Anthropic切断第三方框架(比如OpenClaw)通过Claude订阅服务的调用通道,引发行业震动。

Anthropic官方解释称,有重度用户每月仅支付200美元订阅费,却消耗了价值5000美元的算力资源,给Anthropic带来巨大成本压力。

小米MiMo大模型负责人罗福莉随即发文点评米“第三方框架因上下文管理低效,产生的Token消耗是原生框架的数十倍”。

这个评论的很到位,这不止是OpenClaw的问题,也是所有AI应用的问题。上下文管理本身就各说各有理,模型方如Claude认为要是依靠大模型,而向量数据库方则强调加强数据的管理。

现在第三方框架的加入,更是混乱了。

Leave a Reply

您的邮箱地址不会被公开。 必填项已用 * 标注

You may use these HTML tags and attributes:

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>