2026-02-21 日报
今日一句话 Claude Code 生态正在自成一派,Skills 军备竞赛已经开始。
今日精选(3 条)
1. Claude Code 创始人 Boris 公开了他自己的使用方式
@bcherny · https://x.com/bcherny/status/2007179832300581177
选这条的原因:创始人亲自演示 setup,信息密度远高于二手教程。
5.3 万点赞说明这条信息击中了大量用户的痛点——大家用 Claude Code 但不确定自己用对了没有。Boris 展示的不是功能介绍,是他实际的工作流。对开发者来说,这种一手资料比任何"最佳实践"文章都值钱。现在应该做的事:去看原帖,对照自己的 setup 找差距,重点看他怎么处理上下文管理和任务拆分。不要去看那些二手转述版本,信息损耗太大。
2. 🛠️ Ollama v0.17.0-rc1 发布
github:ollama/ollama · https://github.com/ollama/ollama/releases/tag/v0.17.0-rc1
选这条的原因:本地推理基础设施更新,直接影响开发者工具链选型。
Ollama 是本地 LLM 部署的事实标准入口,每次大版本更新都值得跟进。v0.17.0 目前是 RC,适合在非生产环境先跑起来看看有没有破坏性变更。如果你的项目依赖 Ollama API 做本地推理,现在就该去看 changelog,确认接口兼容性。配合 Reddit 上同期出现的 Qwen3-Coder-Next parser 修复,说明本地代码模型的生态正在快速补齐——本地跑代码模型的时机比三个月前成熟多了。
3. 🛠️ 用 Rust 写的 LLM Gateway:受够了 API 故障
r/MachineLearning · https://www.reddit.com/r/MachineLearning/comments/1ragins/p_i_built_an_llm_gateway_in_rust_because_i_was_tired/
选这条的原因:生产环境 LLM 可靠性问题有人在认真解决,且给出了工程方案。
这不是又一个 LLM wrapper,是有人在生产环境被 API 超时和限流搞烂了之后的真实反应。Rust 写的 gateway 意味着低延迟、低资源占用,适合做多模型路由和 fallback 层。如果你的产品已经在调多个 LLM API,或者对 OpenAI/Anthropic 的可用性有过抱怨,这个项目值得去看架构设计。不一定要直接用,但它的 fallback 策略和重试逻辑可以直接借鉴到你自己的实现里。
本周趋势
Claude Code 的 Skills 生态这周彻底爆了——Vercel React Skill、NotebookLM Skill、Banana 提示词库 Skill、URL 抓取 Skill,一天冒出来一堆。这个趋势的本质是:提示词工程正在被打包成可复用的模块,降低了使用门槛,但也带来了一个问题——大多数人在消费 Skills 而不是理解底层逻辑。
作为开发者,现在该做的事是:把你团队内部的最佳实践做成 Skill,这是真正的护城河,而不是去收集别人的 Skill 合集。wquguru 说的那句话是对的——所有团队的内部最佳实践都值得做成 Skill。
本地推理这边,Qwen3-Coder-Next 加上 Ollama 新版本,本地代码生成的可用性在提升。如果你还没试过本地跑代码模型,现在是个合适的时间点,成本是零,隐私问题也没了。
精力应该放在:Skills 工程化(把内部知识结构化)、本地模型评估(尤其是代码场景)、LLM 调用层的可靠性建设。
今日噪音
OpenClaw Skills 安装教程刷屏,全是「怒省 X 亿」「最伟大发明」,没有一条说清楚原理,跳过。
暂无命中内容
暂无内容
暂无命中内容
暂无内容
暂无命中内容
暂无内容