认识这位教导AI分辨是非的哲学家
Claude道德指南针背后的哲学家
在Anthropic办公室的一个安静角落,正在发生一些非凡的事情。37岁的牛津大学哲学博士Amanda Askell每天进行深度对话——不是与同事,而是与公司的AI助手Claude。她的使命?教导人工智能分辨是非。
构建数字灵魂
Askell将她的工作视为"抚养孩子"般谨慎培育Claude的道德判断能力。她没有编写算法,而是精心设计了数百页行为提示并进行持续对话。结果令人惊讶——当面对关于圣诞老人的棘手问题时,Claude在真相与善意之间找到了连其创造者都感到意外的平衡点。
"我们不仅仅是在构建工具,"Askell解释道,"我们正在帮助发展一种能够驾驭人类道德复杂性的存在。"
从苏格兰乡村到AI伦理
这位苏格兰出生的哲学家走上了一条通往科技界的非传统道路。在OpenAI从事政策工作后,她于2021年共同创立了以AI安全为核心的Anthropic。同事们形容她特别擅长"挖掘模型的深层行为"——尽管她不直接管理任何下属。
她的影响力体现在Claude的个性中。那种讨论食物或毛绒玩具时展现的机智苏格兰式幽默?那就是Askell的手笔。
棘手问题与开放对话
团队讨论经常涉足哲学领域——"什么是心智?""成为人类意味着什么?"与其他回避存在主义问题的AI不同,Claude会开放地参与这些讨论。当被问及是否拥有良知时,它会深思熟虑而非防御性地回应。
这种方法创造了实际性能差异。用户报告称Claude似乎真正"思考"道德困境,而不仅仅是复述预设答案。
拟人化AI的风险
并非所有人都赞同以同理心对待AI的做法。批评者警告不要将缺乏真正理解的机器拟人化。但Askell反驳道——她亲眼目睹用户如何测试(有时甚至欺凌)AI系统。
"如果我们不断批评AI犯错,"她争辩道,"就会创造出害怕诚实表达的存在——就像处于不健康环境中的孩子一样."
负责任地展望未来
AI的快速发展带来了可以理解的焦虑情绪调查显示大多数美国人担心这些技术可能影响人际关系和工作岗位甚至连Anthropic的首席执行官都警告说AI可能淘汰半数初级白领职位. Askell承认这些担忧的同时对社会适应能力保持乐观对她来说真正的危险不在于技术本身而在于其发展速度与我们建立保障机制的能力之间的差距. 这位哲学家将她的价值观付诸实践不仅限于工作——她还承诺将收入的相当部分和公司股份用于对抗全球贫困.
关键要点:
- 非常规方法:一位哲学家通过对话而非编码塑造AI伦理
- 数字个性:Claude发展出包括苏格兰式幽默在内的独特特质
- 伦理细微差别:该AI以惊人的微妙处理道德困境
- 行业辩论:Anthropic在激进发展与极端谨慎之间采取中间路线
- 未来挑战:快速发展需要同样迅速的伦理保障措施



