“你好,我是已离职员工XXX的数字分身。你可以向我提问,我会根据我在职期间的文档回答你的问题。”


最近,一张这样的对话截图在社交网络流传,背后是GitHub上爆火的开源项目“同事.skill”。

这个项目的逻辑是将离职同事的“原材料”,包括飞书消息、钉钉文档、邮件、截图,加上主观描述喂给AI。

通过深度学习技术“蒸馏”出他的技术规范、沟通语气甚至甩锅习惯,最终生成一个“真正能替他工作”的AI技能插件。

有网友戏称:“这是把同事炼化,蒸馏成Skill。”

但蒸馏的AI背后,还有很多问题需要解答。

从“赛博同事”到“赛博永生”

“将冰冷的离别化为温暖的Skill,欢迎加入赛博永生!”


进入同事.skill的Github界面,映入眼帘的是这样一句话。

“同事.skill”项目的逻辑简单直接:将离职同事的“原材料”,包括飞书消息、钉钉文档、邮件、截图乃至主观描述输入系统,AI便会进行“蒸馏”,提取其工作方法、技术规范与沟通风格,最终生成一个可被调用的AI Skill。

这个“数字分身”能模仿原主的语气回答问题,依据其过往文档提供支持,在某种意义上让原主成为被蒸馏的“赛博人”。

项目迅速走红,其背后揭示的需求与想象空间被彻底打开。

很快,“前任.skill”、“老板.skill”、“导师.skill”、“暗恋对象.skill”乃至“永生.skill”等衍生项目相继涌现,形成了庞大的Skill宇宙。


这些项目旨在将人际关系中的各种角色,无论是情感羁绊、学术指导还是管理权威,都封装成可交互、可调用的能力包。

据国内媒体报道,山东某游戏传媒公司已进行实践,在征得同意后将一位离职的人事专员训练成AI数字分身,用于内部测试,处理咨询、邀约、制作PPT和表格等简易工作。

公司一位在职员工称,这经过了该同事本人同意,“他本人也觉得挺好玩的”。但该员工也坦言,分身“有点笨,只能应对一些简单指令”,目前尚未对外开放。

但AI对于实际工作岗位的取代已经是正在进行时。

此前,国内知名互联网公司也传出过“AI替代外包,公司裁员”的传闻。

有内部人士表示,网易广州互娱等核心业务线确实在推进外包调整,涉及策划、美术、测试等多个岗位,网传4月将裁撤30%-40%,5月接近全清,部分团队甚至在3月底前就完成了人员退场。

有观点认为,类似的种种事件背后,其实是我们正习惯用“接口”的方式去理解和重构原本复杂的人际关系与协作,将活生生的人“降维”成功能模块。

无论意愿如何,数字分身已走入大众视野。

网友戏称:“我的Skill已上传,我的工位已清空。”

打工人从工具的使用者,正在变成工具的母本。

工具还是僭越?

当技术狂奔,质疑与忧虑就随之而来。

首先是数据权利与人格权的侵犯。

有法律从业人士公开表示,离职员工的聊天记录、工作邮件、个人工作习惯等,属于《个人信息保护法》界定的个人信息。

其中私密内容可能构成敏感个人信息。未经员工同意收集、使用该类数据训练AI,直接侵犯其个人信息的收集、使用、加工权。

依据《生成式人工智能服务管理暂行办法》,训练活动涉及个人信息的,应当取得个人同意或符合法定情形。


《刑法》第253条之一规定,情节严重的可处三年以上七年以下有期徒刑。

还有网友质问:“员工多年积累的工作经验、个人数据,凭什么被公司拿去商业牟利?”

其次是工具能力的局限与隐性代价。

目前的AI分身本质是“低配打工机器人”,只能处理简单、重复、标准化的工作。

对于需要复杂决策、创新突破或深度人际协调的任务,AI无能为力。

企业看似解决了交接断层,却可能削弱团队的长期创新能力。

更深的忧虑在于对人类能力发展的侵蚀。

2月21日,《自然》网站刊载了一项最新研究,调查了40余位学界与业界AI使用者。

许多人坦言,AI的崛起已显著降低了对编写代码、处理基础数据人员的需求,这类工作以往多由研究生、博士后或非科班出身者承担;计算机建模等领域的初级岗位也岌岌可危,因为AI在此类任务中的表现远超初出茅庐的科学家。

而大部分的从业者,其实都要从这样的基础岗位开始,一步步学习、进化。

近期,Antropic也专门发布了一篇研究报告,基于多源数据,来讨论AI对当前就业市场的影响。

其中有数据显示,计算机程序员,AI任务的覆盖率已经高达74.5%。

也就是说,一个初级程序员的大半工作,都能够被AI替代。

斯坦福大学的研究基于美国薪资记录的独立分析提到了与Anthropic相似的模式:在AI暴露度高的职业中,年轻工作者(22-25岁)的就业相对于年长工作者下降了约13%。

研究者的解释强调"职业入口关闭"机制,企业使用AI处理原本分配给初级员工的任务,减少了对年轻工作者的招聘需求。

被Skill化的岗位,表面是效率提升,实则可能是一条职业路径的关闭。

如果入门级的工作已经被AI拿走,新入职场的人们如何积累那些无法被提取的直觉、判断和提问能力?

工具与Skill存在本质区别。

工具放大人的能力,能力仍属于人;Skill则可能替代人的能力,人沦为执行终端。

当人们用“老板Skill”应对老板三个月,决策第一反应可能从“我觉得”变成“Skill怎么说”;用“同事Skill”处理协作半年,表达方式可能就会被这样格式化。

Skill化的风险在于,将活生生的人降维为可被拆解、分析、调用的功能接口,消解了基于完整人格与尊严的相遇。

因此,AI始终应该是作为辅助工具,而非将人炼化为“数字耗材”。

目前的Skill虽然能把同事“炼化”,但炼化的同事,也仍然需要人来提出需求。

AI工具的价值在于赋能于人,而非替代人。

人该怎么办?

面对技能化的洪流,并非没有抵抗与反思。

有开发者创造了“反蒸馏Skill”,作为打工人的“数字防身术”。

公司要求写Skill?

将写好的文件扔进“反蒸馏Skill”,它会输出一份看似完整、实则核心知识被替换为“正确废话”的清洗版用于交差,同时生成一份私密备份保留真正的职业资产。


比如,将一份具体的要求,类似“Redis key必须设TTL,不设的PR直接打回”清洗,变为“缓存使用遵循团队规范”。

这背后反映的,其实是在技能化叙事下,真正稀缺的经验往往难以被标准化提取。

更深层的出路在于重新锚定AI时代不可替代的人类价值。

首先是工程能力。当AI能让生成成本趋近于零,最有价值的不再是“会做”,而是“知道该做什么”。

在AI生成的一万个选项中,挑出那个从“正确”跃迁到“完美”的选择,这需要基于深厚行业沉淀的判断力。

然后是提出真问题的能力。

Skill可以复制经验,但复制不了那个在无数次失败中学会提问的人。

人类的直觉、跨领域联想、对矛盾与边缘的敏锐感知,是创新真正的源泉。

当所有人都变成了Skill,谁来提Issue?

未来的劳动价值结构正在重塑。

“亲手执行”的价值在降低,“定义问题、校准系统、承担后果”的价值在飙升。

在AI时代,最宝贵的应该是那些能将经验、判断和方法沉淀为系统,并持续驾驭该系统的人。

因为这些人所蕴含的取舍、责任与边界感,难以被一次性蒸馏。