早上起来在抖音看到一个视频,是介绍SLM小模型的,这个SLM自然是针对LLM大模型而言的。
这个视频的源头是gemma推出了开源的小模型270m,这个模型只有不到300M,是小的不能再小了,应该针对的是手机应用。
视频中关于小模型的介绍,倒是跟我最近对小模型应用总结差不多,那就是小模型的本地部署是有实用价值的。主要针对的就是目的明确的批量处理任务,而非那种专业性的求索性应用。
同时本地部署模型可以处理本地资源,并确保用户隐私。
最后,那个视频的依据除了gemma3,还有英伟达的一篇重文本轻公式的小模型应用的论文。
所以,小模型的最为关键的优势不言而喻:成本低。