MSA(Memory Sparse Attention)— 突破 AI 记忆瓶颈的开源方案

MSA 把记忆直接嵌入注意力机制本身,而非外挂检索,实现了端到端的长期记忆能力,突破了传统 RAG 的精度上限和 context window 的计算成本瓶颈

AI

LLM Personal Knowledge Base Pattern (Karpathy)

用 LLM 构建持久 wiki 代替传统 RAG,让知识在摄入时编译而非查询时重推导。三层架构:Raw Sources(不可变)→ Wiki(LLM维护)→ Schema(CLAUDE.md/AGENTS.md)

AI