Anthropic员工群体为何被指像「邪教」?独特招聘流程是主因?

AI世纪 2025-08-31
大模型 2025-08-31

的员工群体被其他人形容像「邪教」。

Anthropic_Anthropic员工意识形态狂热_Anthropic行为面试道德伦理

在所有AI模型开发商中,可能是员工意识形态最狂热的公司,一些研究人员甚至用「邪教」来形容它。

这背后的原因很多。

据The 报道,CEO Dario 每月都会举办「Dario愿景探索」活动,跟员工畅谈AI的未来(带着明显的宗教色彩);高管们经常公开谈论超级智能AI的危险。

但还有一个很少被讨论的因素:独特的招聘流程。

道德拷问

和其他AI实验室一样,会通过一系列测试来检验候选人的技术能力。

Anthropic_Anthropic行为面试道德伦理_Anthropic员工意识形态狂热

但不同的是,他们的「行为面试」权重特别大,而且明显偏向道德伦理。

一位在面试过的工程师透露,招聘人员告诉他,只有很小一部分申请者能通过行为面试。

对许多候选人,的招聘人员会联系他们的前同事和朋友,然后询问他们的人品如何。

行为面试的问题也很不寻常。

不是那种典型的「讲讲你如何克服挑战」或「讲讲你如何领导团队」,候选人经常被问到如何处理棘手的道德困境。

比如,有候选人被问到:说出一个你尊重或钦佩但在价值观上有分歧的人。

另一个候选人被问到:讲讲你做过什么违背公司盈利目标但符合你道德观的事。

怎么讲,快接近「你妈和你媳妇同时掉进河里先救谁」的难度了。

这些问题反映了长期以来一直将公共安全置于利润之上的理念。

2022年,从出走的创始人因为安全顾虑推迟发布AI聊天机器人。

结果,只能眼睁睁看着在几周后发布了。

理想与现实的挣扎

虽然现在已经是营收巨头,但它仍在这个问题上纠结。

今年早些时候,在给员工的备忘录中写道,公司将接受来自阿联酋和卡塔尔的资金,而此前他们拒绝了沙特阿拉伯的钱。

在备忘录中承认,接受中东领导人的资金可能会让「独裁者」受益,但他说「永远不让坏人从我们的成功中获益,这个原则很难用来经营企业」。

还是面临着和一样的版权侵权指控。见前文:

本周二,宣布与一群知名作家达成和解,这些作家声称未经许可就用他们的数据训练模型。见前文:

留人秘诀

这种注重招聘价值观相似员工的做法,或许能解释为什么能够留住工程师和研究人员,即使Meta等公司开出了丰厚的薪酬待遇。

根据VC公司今年5月发布的报告,过去两年招聘的员工留存率达到80%.

相比之下, 是78%,只有67%。

当然,估值虽然飙升,但员工出售股份的机会不如多,这也可能解释了更高的留存率。

在快速扩张的创业公司中保持这种文化很困难,近年来经历的成长阵痛就是明证。

但对于那些想复制留存成功的公司来说,行为面试或许是个好的起点。

被用来干坏事

这周三上午,发布了威胁情报报告,其中包含了模型被滥用的几个例子。

Anthropic_Anthropic员工意识形态狂热_Anthropic行为面试道德伦理

报告显示:

这份报告提供了罪犯如何利用对话式AI模型提高效率的首批具体案例。

威胁情报主管Jacob Klein表示:

我们真的第一次看到,AI让老练的攻击者能够扩大自己的规模。以前可能需要五个人做的事,现在一个人就能完成。

这些案例或也解释了为什么如此重视价值观和道德:

当技术可以被用来做坏事时,其开发者更需要确保开发它的人有正确的价值观。

虽然身上拧巴得有些像个「邪教」,但相较其他AI公司而言,其确实似乎一直在坚守着AI安全底线的道德信仰。