MSA(Memory Sparse Attention)— 突破 AI 记忆瓶颈的开源方案

MSA 把记忆直接嵌入注意力机制本身,而非外挂检索,实现了端到端的长期记忆能力,突破了传统 RAG 的精度上限和 context window 的计算成本瓶颈

AI

Playwright vs CDP 浏览器控制方式对比

Playwright 是封装好的高级工具,CDP 是浏览器底层的"机器语言"。对于 OpenClaw 直接操作宿主机浏览器主 Profile 的场景,CDP (DevTools MCP) 协议连接 9222 端口是最优选择

AI

Harness Engineering 读后感:AI工程的第三次范式转移

Harness Engineering = 为 Agent 构建「办公室」,而不是继续优化「邮件措辞」。从「写好指令」到「构建环境」,让 agent 在真实生产环境中稳定可靠地运转

AI

Hermes Agent 官方文档解读 vs OpenClaw

Hermes Agent 是 Nous Research 开发的白学元 AI Agent,MIT 协议。核心定位差异:OpenClaw = 本地优先的 Agent 编排框架,Hermes = 自进化个人操作者

AI

LLM Personal Knowledge Base Pattern (Karpathy)

用 LLM 构建持久 wiki 代替传统 RAG,让知识在摄入时编译而非查询时重推导。三层架构:Raw Sources(不可变)→ Wiki(LLM维护)→ Schema(CLAUDE.md/AGENTS.md)

AI

OpenClaw 容器内浏览器无法启动问题排查

容器内需要 headless:true + noSandbox:true + extraArgs 禁用 setuid/namespace sandbox,三者缺一不可。SIGUSR1 热重启对 headless 字段不能完全生效,需完整重启容器

AI

Gemma 4:谷歌开源31B干翻4000亿,Mac Mini就能跑

31B参数,Apache 2.0协议,Mac Mini能跑,AIME数学从20%飙到89%——Google开源模型这次真的翻身了。但工具调用还是短板

AI

Agency-Agent:144个AI员工一键部署

144个AI员工一键部署。看了一下它的文档,我现在才大概懂了。所谓它集成了很多个 Agent,其实是因为它整个开源项目是由一个个独立的 Agent 组成的,总共已经凑了一百多个。每个文件夹下面就是一个 Agent。

AI

Claude Code 长短记忆机制分析

Claude Code 的记忆系统不是单一的"记忆"功能,而是一个**多层、多作用域、多生命周期**的记忆体系。整体分为:

AI

Claude Code 长上下文管理策略分析

Claude Code 不是简单依赖 LLM 的 256K/512K/1M 上下文窗口硬抗,而是设计了一套**多层、递进式**的上下文管理系统。共 6 层防线,由轻到重依次触发,确保在任何交互长度下都能保持 AI 响应的质量和速度。

AI
123