MSA(Memory Sparse Attention)— 突破 AI 记忆瓶颈的开源方案
MSA 把记忆直接嵌入注意力机制本身,而非外挂检索,实现了端到端的长期记忆能力,突破了传统 RAG 的精度上限和 context window 的计算成本瓶颈
MSA 把记忆直接嵌入注意力机制本身,而非外挂检索,实现了端到端的长期记忆能力,突破了传统 RAG 的精度上限和 context window 的计算成本瓶颈
Playwright 是封装好的高级工具,CDP 是浏览器底层的"机器语言"。对于 OpenClaw 直接操作宿主机浏览器主 Profile 的场景,CDP (DevTools MCP) 协议连接 9222 端口是最优选择
Harness Engineering = 为 Agent 构建「办公室」,而不是继续优化「邮件措辞」。从「写好指令」到「构建环境」,让 agent 在真实生产环境中稳定可靠地运转
Hermes Agent 是 Nous Research 开发的白学元 AI Agent,MIT 协议。核心定位差异:OpenClaw = 本地优先的 Agent 编排框架,Hermes = 自进化个人操作者
用 LLM 构建持久 wiki 代替传统 RAG,让知识在摄入时编译而非查询时重推导。三层架构:Raw Sources(不可变)→ Wiki(LLM维护)→ Schema(CLAUDE.md/AGENTS.md)
容器内需要 headless:true + noSandbox:true + extraArgs 禁用 setuid/namespace sandbox,三者缺一不可。SIGUSR1 热重启对 headless 字段不能完全生效,需完整重启容器
31B参数,Apache 2.0协议,Mac Mini能跑,AIME数学从20%飙到89%——Google开源模型这次真的翻身了。但工具调用还是短板
144个AI员工一键部署。看了一下它的文档,我现在才大概懂了。所谓它集成了很多个 Agent,其实是因为它整个开源项目是由一个个独立的 Agent 组成的,总共已经凑了一百多个。每个文件夹下面就是一个 Agent。
Claude Code 的记忆系统不是单一的"记忆"功能,而是一个**多层、多作用域、多生命周期**的记忆体系。整体分为:
Claude Code 不是简单依赖 LLM 的 256K/512K/1M 上下文窗口硬抗,而是设计了一套**多层、递进式**的上下文管理系统。共 6 层防线,由轻到重依次触发,确保在任何交互长度下都能保持 AI 响应的质量和速度。