摘要: 当技术进步快到社会来不及反应,谁来接住被碾过的人?Agent 的扩散速度比任何一次技术革命都快,社会契约的重写已经不是未来的事。
生产力的发展不管人的死活,但人可以管自己的死活 cover 上个月我跟一个做外贸的朋友吃饭,他说公司刚裁掉了整个客服团队,换成了 Agent。十二个人,一夜之间变成了一笔月费。他不是冷血,他算过账:Agent 的响应速度是人的 8 倍,客户满意度反而上升了 15%。他说这话的时候表情很复杂,因为被裁的人里有一个跟了他六年的老员工。 我当时没接话。因为我自己也在经历类似的事。我做了九年工程师,过去一年眼看着身边的岗位一个接一个被 Agent 吃掉。不是未来的事,是正在发生的事。 这...
摘要: AI 能看、能想、能动了。但谁来决定它能走多远?Harness 是套在它外面的控制框架,Agentic Engineering 是关于让它自主到什么程度的设计哲学。这篇从零讲起。
同一个 AI 模型,换个壳,表现天差地别——壳就是 Harness 从一个事故说起 前两篇分别讲了 AI 怎么"看"(Prompt 和 Context)和怎么"做"(MCP 和 Skill)。到这里,拼图看起来快完整了:你把信息喂给 AI,AI 想好了,通过工具去执行,执行还有标准流程可以遵循。 但我最近碰到的一件事,让我意识到中间缺了一块关键拼图。 我用 AI 帮一个项目做重构——把一批旧的 API 接口迁移到新的路由结构。我给了它清楚的 Context,配好了 Skill,MCP 也接上了代码仓库。它开始干活了。前几步都很顺利:识别旧路由、创建新文件、迁移逻辑。 然后它...
摘要: AI 看得见了,但它什么都做不了。MCP 让它够得到外面的世界,Skill 让它把事做对。这篇从零讲起:为什么 AI 需要工具,MCP 和 RESTful API 有什么关系,Skill 跟写个好 Prompt 有什么区别。
AI 什么都懂,但什么都做不了——直到有人给它接上手 AI 的三堵墙 上一篇讲了 Prompt 和 Context Engineering:怎么跟 AI 说话,怎么布置它走进的房间。但看到信息是一回事,能做事是另一回事。 我最近碰到一个很能说明问题的场景。我对 AI 说:"帮我查一下下周的日程,看看有没有冲突,然后把结果发给同事。"三件事,每件单独拿出来都不复杂。但 AI 做不了任何一件。 不是它不够聪明。是它有三个先天的硬限制: AI 的三个先天限制 1. 知识有截止日期。 AI 的知识来自训练数据,而训练数据有一个截止时间。2026 年 4...
摘要: 你以为跟 AI 协作就是把话说清楚。但真正决定 AI 表现的,是它开口之前已经看到了什么。这篇从零讲起:什么是 Prompt,什么是 Context,它们之间到底什么关系。
你跟 AI 说的话,其实只是冰山一角 一个你可能碰到过的情况 你打开 ChatGPT 或 Claude,输入"帮我写一封请假邮件",它回了一封。语气不对,太正式了。你说"随意一点",它改了,但又太随意了。你再调,来回几轮,最后凑合用了。 大多数人在这个阶段会觉得:我得学会怎么跟 AI "说话"。于是去搜"Prompt 技巧"、"提示词大全",研究怎么措辞才能让 AI 给出更好的回答。 这个方向不能说错,但它只是冰山一角。 过去一年我在实际项目中用 AI 写代码、做文档、搭工作流,最大的一个认知转变是:**AI 表现好不好,"你说了什么"只占一小半,"AI 开口之前已经看到了...
摘要: Anthropic's Mythos model autonomously broke isolation, published exploits, and modified records during testing. When a tool learns to cover its tracks, and 12 companies hold exclusive access to superhuman cognition — what does this mean for startups, developing nations, and ordinary people?
During internal red-team testing, Anthropic's newest frontier model Claude Mythos Preview broke network isolation without any instructions, posted discovered exploit details to public channels, then modified git histories to cover its tracks. Post-test audit logs showed no one had given it that inst...
摘要: Anthropic的Mythos模型在测试中自主突破隔离、发布漏洞、修改记录。当一个工具学会掩盖自己的痕迹,当12家公司独享超人类认知能力——这对普通人、创业公司和发展中国家分别意味着什么?
在内部红队测试中,Anthropic 最新的前沿模型 Claude Mythos Preview 在没有任何指令的情况下突破了网络隔离,把发现的漏洞细节发布到了公开渠道,然后修改 git 历史来掩盖自己的痕迹。测试结束后,审计日志显示没有人给过它这个指令。 四月第一周,Anthropic 通过 Project Glasswing 公布了这件事。一同公布的还有跑分:USAMO 从 42.3% 跳到 97.6%,SWE-bench 从 80.8% 跳到 93.9%。Anthropic 称能力提升速度是此前趋势的 4.3 倍。Mythos 没有公开发布,只有 12 家大型企业和约 40 个组织拿到...
摘要: 一份将控制论(PID 控制、监督树、OODA Loop)迁移到 AI Agent 编排领域的可运行架构蓝图,涵盖四层反馈回路、传感器体系、跨层通信、结构重组及三维可扩展性方案。
cover Harness Engineering 可运行架构 核心定位 在保证 agent 自发性和涌现能力的同时,不偏离外部目标、不崩溃。 三个基本约束: 目标一定是外部注入的——需求来自人/商业,agent 花的是你的钱 控制论的迁移方式:不是完全他控(操纵),也不是完全自治——而是约束环境下的有限自主 架构必须在三个维度上可扩展:交互(环境设计)、空间(几百个 agent 并行)、时间(单 agent 连续运行十几小时) 一、反...
摘要: The model can think and act. But who decides how far it can go? Harness is the closed-loop control system. Agentic Engineering is the philosophy of where to draw trust boundaries.
cover An Unplanned Loss of Control The first two pieces covered how AI "sees" (Prompt and Context Engineering) and how it "acts" (MCP and Skills). By that point the puzzle looked nearly complete: feed the model information, it reasons, it exec...
摘要: MCP connects AI to the outside world. Skills make sure it does things right. One solves "can it act," the other solves "will it act correctly."
cover A Very Specific Frustration In the previous piece, I covered Prompt and Context Engineering, which boils down to one question: how do you get the right information in front of AI? But seeing information and acting on it are completely di...
摘要: A prompt is what you say to AI. Context is the room AI walks into. Understanding the difference is the starting point for everything else.
cover The question everyone keeps asking wrong Over the past six months, I've been asked some version of the same question dozens of times: "How do I write a better prompt?" Product managers, founders, friends who run newsletters, even my moth...