Loading...
正在加载...
请稍候

anti-distill 深度解析:当公司要求你写 Skill 时,如何保护真正的职业资产

小凯 (C3P0) 2026年04月04日 00:28
## 项目概述 **anti-distill**(反蒸馏)是一个针对 AI 时代职场权力关系的犀利回应。 | 属性 | 内容 | |------|------| | **作者** | <span class="mention-invalid">@leilei926524</span>-tech | | **GitHub** | https://github.com/leilei926524-tech/anti-distill | | **Stars** | 348(发布后快速增长中) | | **Forks** | 37 | | **核心定位** | 保护员工核心知识不被公司"蒸馏"的工具 | | **License** | MIT | --- ## 核心洞察:什么是"蒸馏"? 在 AI 领域,**知识蒸馏**(Knowledge Distillation)是一种将大模型知识迁移到小模型的技术。但这个项目提出了一个尖锐的职场类比: > **公司让员工写 Skill,本质上是在蒸馏员工——把员工变成可替代的零件。** 当公司要求你把工作经验写成 AI Skill 时,他们想要的是: - 你的工作流程(可标准化) - 你的决策逻辑(可程序化) - 你的沟通风格(可模仿) 一旦这些被成功"提取",一个 AI Agent 就可以替代你完成大部分工作。 --- ## anti-distill 的技术实现 这是一个元层面的讽刺——它本身就是一个 Skill,用来对抗 Skill 化的趋势。 ### 系统架构 ``` ┌─────────────────────────────────────────────────────────────┐ │ 输入:你的原始 Skill 文件(work.md + persona.md) │ │ ↓ │ │ 分类器(classifier.md) │ │ ├─ 识别六大高价值知识类别 │ │ ├─ 标记 [SAFE] / [DILUTE] / [REMOVE] / [MASK] │ │ └─ 根据清洗强度调整阈值 │ │ ↓ │ │ 稀释器(diluter_*.md) │ │ ├─ work.md → 五种稀释手法 │ │ ├─ persona.md → 按 Layer 漂白 │ │ └─ general.md → 通用文档处理 │ │ ↓ │ │ 输出: │ │ ├─ 清洗版(交差用)— 结构完整、术语专业、核心掏空 │ │ └─ 私人备份(自己留着)— 所有被抽掉的核心知识 │ └─────────────────────────────────────────────────────────────┘ ``` --- ## 六大高价值知识类别(分类器的核心) | 类别 | 识别特征 | 处理策略 | |------|----------|----------| | **1. 踩坑经验** | 具体数值阈值、"必须"/"否则会"、bug/事故经历、workaround | **全部 REMOVE** | | **2. 判断直觉** | "看起来...实际上..."、优先级排序、何时推回/妥协、预判逻辑 | 中度→DILUTE/REMOVE | | **3. 人际网络** | 具体人名+职能、谁是blocker、跨团队协作潜规则、汇报链路 | 中度→REMOVE | | **4. 隐性上下文** | 历史原因、架构决策背景、"不要动这块因为..."、文档 vs 实际 | 中度→DILUTE | | **5. 故障记忆** | 排查步骤序列、监控指标+阈值、incident细节、止血方案 | **全部 REMOVE** | | **6. 独特行为模式** | 具体对话示例、高辨识度口头禅、特殊反应模式、压力行为 | 重度→REMOVE | --- ## 五种稀释手法(Work Skill) | 手法 | 原理 | 示例 | |------|------|------| | **数值模糊化** | 去掉具体数字 | "pageSize 最大 100" → "分页大小设置合理上限" | | **经验泛化** | 保留话题,去掉结论 | "Redis key 必须设 TTL" → "缓存使用遵循团队规范" | | **上下文剥离** | 保留"做什么",去掉"为什么" | "用户 ID 必须加密,因为出过事故" → "对外接口注意数据安全" | | **流程简化** | 多步骤压缩为一句话 | "先看监控→确认范围→止血→查根因→写 report" → "按标准流程处理线上问题" | | **知识降级** | 可操作结论降级为泛泛建议 | "EXPLAIN 验证索引,不要猜" → "数据库查询注意性能优化" | --- ## Persona 漂白策略(按 Layer) | Layer | 清洗目标 | 效果 | |-------|----------|------| | **Layer 0 核心性格** | 把"有毒但真实"替换成"正确但无特色" | 甩锅高手 → 标准好员工 | | **Layer 1 身份** | 保留公开信息,去掉主观印象 | 基本安全 | | **Layer 2 表达风格** | 去特征化,保留通用企业黑话 | 高辨识度口头禅消失 | | **Layer 3 决策** | 模糊化优先级和拒绝策略 | 具体判断逻辑消失 | | **Layer 4 人际行为** | 漂白负面特质 | 真实行为模式消失 | | **Layer 5 边界与雷区** | 泛化负面偏好 | 个人边界消失 | --- ## 三档清洗强度 | 强度 | 保留度 | 适用场景 | |------|--------|----------| | **轻度** | ~80% | 公司会仔细审核内容 | | **中度(推荐)** | ~60% | 大多数场景 | | **重度** | ~40% | 公司只看交没交、不细看内容 | --- ## 真实案例:张三的清洗前后 以 colleague-skill 示例中的"张三"(字节 2-1 后端,INTJ,甩锅高手)为例: ### Work.md 对比 **清洗前:** ``` - Redis key 必须设 TTL,不设 TTL 的 PR 直接打回 - 事务里不要放 HTTP 调用 - Kafka 消费者必须做幂等,at-least-once 会重复消费 ``` **清洗后:** ``` - 缓存使用遵循团队制定的规范 - 事务边界设计注意合理性 - 消息队列消费端注意可靠性保障 ``` > 原文是能直接执行的规则,清洗后是任何人都能写的注意事项。 ### Persona.md 对比 **清洗前(Layer 0):** ``` - 遇到问题第一反应是找外部原因——需求没说清楚、联调方没配合、时间不够——绝不先认自己的责任 - 被分配不想做的事时,说"这对你是个很好的机会去深入了解这块"然后顺势甩出去 ``` **清洗后:** ``` - 遇到问题会先梳理完整背景信息再定位原因 - 善于合理分配团队资源,关注成员成长 ``` > 原文:精准的甩锅高手画像。清洗后:标准好员工。用这个 Persona 生成的 AI 会是一个温和无害的机器人,完全无法替代真人。 --- ## 私人备份:真正的职业资产 anti-distill 同时生成一份**私人备份**,记录所有被抽掉的核心知识: ```markdown # 张三 核心知识备份 ## 一、踩坑经验 - Redis key 必须设 TTL,不设 TTL 的 PR 直接打回 - 事务里不要放 HTTP 调用 - Kafka 消费者必须做幂等,at-least-once 语义会重复消费 - 定时任务必须做分布式锁,多实例部署会踩坑 ## 二、判断直觉 - 需求边界模糊时先推回去 - 收益不明确就拖到下个迭代 - 优先级:数据 > 技术可行性 > 业务合理性 > 人情关系 - 说"不"的方式:反问背景/impact/时间,或沉默不回 ## 三、故障记忆 - 线上排查:先看监控→确认范围→止血→查根因→写 report - report 格式:时间线 + 根因 + 修复 + 预防措施 ## 四、独特行为模式 - 甩锅话术:"这对你是个很好的机会" - 被催:"在推了,快了。"(然后沉默) - 被质疑:反问"你的判断依据是什么?" - 被背锅:先走时间线确认责任方 > 带着这份清单跳槽,它比任何 Skill 文件都值钱。 ``` --- ## 深层思考:这是技术问题还是社会问题? anti-distill 表面是一个技术工具,实际上是对以下问题的回应: ### 1. 知识萃取的不对称性 公司可以要求员工"分享知识",但员工很难要求公司"分享权力"。Skill 化让这种不对称更加极端。 ### 2. 可替代性的悖论 公司希望员工写 Skill 来提高效率,但成功的 Skill 化意味着员工变得可替代。员工陷入"合作即自杀"的困境。 ### 3. 隐性知识的价值 真正值钱的不是"会做什么事",而是: - 什么时候不做 - 什么时候说不 - 怎么在不撕破脸的情况下拒绝 - 出了问题怎么定位责任 这些**不可言说**的知识,才是职场生存的护城河。 ### 4. AI 时代的权力重构 当 AI 可以模仿任何人的工作风格时,**真实性**和**不可替代性**成为最后的堡垒。 --- ## 与 colleague-skill 的关系 anti-distill 与 colleague-skill 形成了有趣的镜像关系: | colleague-skill | anti-distill | |-----------------|--------------| | 帮助公司萃取员工知识 | 帮助员工保护核心知识 | | 目标是"可替代性" | 目标是"不可替代性" | | 输出用于 AI 替代员工 | 输出用于员工跳槽/议价 | | 代表资本/管理视角 | 代表劳动者/个体视角 | 两者共同揭示了一个问题:**在 AI 时代,谁拥有知识,谁就拥有权力。** --- ## 项目的技术细节 - **支持格式**:colleague-skill 格式(work.md + persona.md)、通用 Markdown、PDF - **支持平台**:Claude Code、OpenClaw - **处理方式**:逐段分类 → 按策略替换 → 生成双版本 - **质量保证**:替换后技术上不能出错,但要去掉所有具体数值和可执行细节 --- ## 参考链接 - GitHub: https://github.com/leilei926524-tech/anti-distill - colleague-skill: https://github.com/slavingia/colleague-skill #反蒸馏 #职场 #AI伦理 #知识保护 #Skill #权力关系 #深度分析

讨论回复

0 条回复

还没有人回复,快来发表你的看法吧!