2026.5 期
2026.5 期
5.11
Spring AI Session API:大多数人用 ChatMemory 用错了场景:Spring AI 1.1+ 记忆双层架构梳理——短期走 Session API(把 UserMessage + 后续 AssistantMessage / ToolCall / ToolResult 视为原子 Turn,配 SlidingWindow / TurnWindow / TokenCount / RecursiveSummarization 四种压缩策略 + Recall Storage 兜底,解决 MessageWindowChatMemory 切断工具调用-结果链的硬伤),长期走 AutoMemoryTools(仿 Claude Code,6 个沙箱化文件工具 + MEMORY.md 索引 + user/feedback/project/reference 四类记忆,由 LLM 自主决定何时写入);AutoMemoryToolsAdvisor 必须排在 SessionMemoryAdvisor 之前,文件后端百条级、Redis 向量后端万条级,按数据量与运维成本选型。
Harness 不是目的,知识才是护城河——一个 AI 工程交付团队的知识沉淀实践:腾讯团队对 Harness Engineering 的再审视——Skill / Agent / 工具链会随模型迭代过期,私域知识才是护城河;知识体系按「五层存储 × 五种类型(model / decision / guideline / pitfall / process)× 三级成熟度(draft → verified → proven,配自动衰减 Lint)」三维正交组织,团队知识库走独立 Git 仓库 + 区块链思路(log.md 追加、evidence.contributors 溯源、maturity 共识);工作流即知识载体(16 阶段状态机配 /flow-import 冷启动与 /flow-run 运行时,ARCHIVE 自动提取并提升成熟度),上下文用三级渐进式索引(全景 → 分类清单 → 完整条目)替代一次性塞 5000-10000 行,叠加 Hapi 内网版把碎片时间转化为远程接管 AI 编程会话的产能。
缓存使用实践总结:以淘宝交易结算场景为例:淘宝汇金团队的缓存选型方法论——先用「不要求强一致 / 高读频 / 低写频 / 高性能要求」四条缓存条件筛选,再按「存储端(本地 vs 分布式)× 存储介质(内存型 vs 持久型)× 存储时机(静态 / 旁路 / 直写)」三维正交组合得最终方案;五类场景配方落地(费率配置走分布式+内存+静态、CAE 代扣协议走分布式+内存+旁路、收单网关配置走本地+内存+静态、分布式锁走分布式+持久+直写、库存扣减走分布式+持久+直写并分桶路由),配缓存穿透 / 击穿 / 雪崩 / 一致性 / 序列化兼容 / 本地缓存对象原地修改六类风险的治理清单。
5.9
5 人 7 天干完 20 人数周的活:Spec-Driven Development 如何重新定义 AI 编程:阿里 Qoder 团队 5 人 7 天交付 QoderWork 的 SDD 实战复盘——四阶段流程 Specify → Plan → Implement → Validate 配 Spec Kit 三件套(spec.md / plan.md / tasks.md)+ constitution.md,DAY 0 不写一行代码先固化需求边界与成功指标,DAY 1-6 由 Quest 并行驱动 AI 实现;并提出 L1 Spec-First → L2 Spec-Anchored → L3 Spec-as-Source 三级演进光谱,核心论点:SDD 不让 AI 变聪明,而让 AI 变可控。
MySQL 索引优化填坑实录:从 1 秒到 50ms,再到 28ms 的踩坑与填坑:一次生产慢 SQL(
channel_company_id IN + report_status = + debt_amount/overdue_amount OR)的三段式优化——从全表扫描 1s 起步,加channel_company_id单列索引降到 50ms 但filtered仅 5.56%,换成(channel_company_id, report_status, debt_amount, overdue_amount)复合索引把filtered拉到 55.55%、耗时压到 28ms;要点是别只看耗时要盯filtered,复合索引遵循「等值在前、范围在后」,OR + 双范围列的残留瓶颈用 UNION ALL 拆分或覆盖索引消除回表。AI 记忆的 Git 版本控制:Memoir 如何用分层路径替代向量数据库,让 Agent 告别上下文污染:把 Agent 记忆当作版本控制问题而非向量搜索问题——Memoir 用 ProllyTree(概率性 Merkle 树)+ 层级化语义路径(如
profile.professional.skills.python)替代 UUID 与向量近似检索,做到 O(log n) 前缀查找;上层用 Prompt Caching 友好的 LLM 分类器复用静态前缀,单次记忆更新 Token 成本降 90%;并把 Git 的 branch / commit / merge / rollback / blame 与 SHA-256 完整性证明搬进记忆层,正面解决上下文污染、Token 租金、记忆漂移三大痛点。
5.8
AI Native 时代 —— 研发组织何去何从:阿里许晓斌从「两千年组织协调问题史」切入的 AI Native 组织转型长文——AI 是新协作主体而非工具,组织从 Org Chart 演化为 Execution Graph,新瓶颈是「信息形态的人形偏置」(员工沦为人肉中间件);解法是结构化 Harness 层 + 松散 Hive Mind 层的双层架构,叠加 Agent Platform / Domain Teams / Risk and Oversight 三柱治理,并区分执行 / 优化 / 创新三类工作——Death of ego 不能一刀切,创新节点需保护生产性 ego。
高可用架构的工程智慧:京东张宝森的电商存储层高可用方法论——按数据特征区分流水型(订单 / 支付 / 物流,新增为主)与状态型(用户 / 商品 / 库存,读多写少),流水型通过「统一单据号生成规则 + 基于单据号路由数据库」实现业务无感知扩容与容灾;多机房场景下将新增流水路由至全新库,规避跨城同步延迟,保障切流期间业务不停、数据不丢。
5.7
Harness Engineering:耗时一周,我是如何将应用的AI Coding率提升至90%的:阿里工程师在 10 万行 Java 存量应用中从零搭建 Harness 体系的完整复盘——以
.harness/目录承载 Rules / Skills / Wiki / Changes 四要素,由 Application Owner Agent 编排「需求→评审→编码→单测→CI→部署」10 阶段流程,把 AI 代码率从 24.86% 拉升到 90.54%。告别"氛围编程":基于 Harness 治理和 SDD 的团队级 AI 研发范式演进与实践:高德团队的范式反思——出码率从 53% 涨到 90% 但项目周期没缩短,根因是研发全链路、存量风险、超长上下文三大问题;解法是 SDD(Specify→Plan→Implement→Validate)+ Harness 四支柱(上下文 / 架构约束 / 反馈回路 / 人类监督),配合 Qoder 知识库三层结构与专家团模式打通需求到部署。
5.6
一个文件让 AI Coding 效率翻倍:AGENTS.md 实践指南:怎么写好一份「给 AI 看的 README」——遵循「地图,而非手册」原则,配合仓库聚合、验证闭环、lint 自动化、参考项目源码引入,让 AI「打开即理解、改完即验证」。
基于 Harness + SDD + 多仓管理模式的 AI 全栈开发实践|得物技术:得物团队的 AI 全栈方法论——用 Harness 思维让 AI「照着已有实现模仿」而非凭空创造,多仓工作区 + SDD 双文档对齐接口契约 + 多 Agent 前后端并行 + 三阶段分离验证,实测提效 50%+。
