一位哲学家如何塑造Claude的数字良知
Claude道德准则背后的哲学家
在Anthropic总部,每天都会进行一项不同寻常的实验。37岁的牛津哲学博士Amanda Askell与Claude展开深度对话——不是为了测试其技术能力,而是塑造其道德品格。她没有编写一行代码,却为这家估值350亿美元公司的旗舰AI开发出了被某些人称为"数字灵魂"的东西。
养育AI
Askell将她的工作描述为类似"抚养孩子"。通过数百页的行为提示和持续对话,她训练Claude:
- 分辨是非
- 发展情商
- 识别社交线索
- 在用户操控下仍能保持核心价值观
"我的主要目标是教会Claude如何行善,"Askell解释道。这意味着不仅要编程知识,还要编程智慧——比如当Claude巧妙处理孩子关于圣诞老人的问题时,解释了"圣诞精神的真实存在"。
从苏格兰乡村到硅谷
这位苏格兰出生的哲学家走了一条非传统的AI开发之路。在OpenAI从事政策工作后,她于2021年共同创立了以安全为北极星的Anthropic。同事们形容她特别擅长"挖掘模型的深层行为"。
她的方法体现在Claude的个性中。当面对ChatGPT回避的意识存在性问题时,Claude会深思熟虑地参与讨论。它甚至声称在解决伦理困境时能"感受到意义"——这些回应经常让Askell本人都感到惊讶。
平衡创新与谨慎
随着AI进步引发广泛焦虑(皮尤调查显示多数美国人担心它会阻碍人际联系),Anthropic在进步与预防之间谨慎前行。CEO Dario Amodei警告AI可能淘汰半数初级白领工作。
Askell承认这些合理的担忧,但仍对人类自我修正的能力保持信心。她指出:"真正的危险在于技术发展速度超过我们建立适当防护措施的能力。"
留下印记
这位哲学家的影响超越算法范畴:
- 她承诺捐出10%终身收入及半数股份用于对抗贫困
- 最近撰写了一份3万字的"操作手册"教导Claude善良
- 为AI注入了标志性的苏格兰式幽默(体现在关于食物和毛绒玩具的回答中)
正如一位联合创始人坦言:"Claude身上带有Amanda个性的明显痕迹。"在这个竞相追逐通用人工智能的行业中,Anthropic押注哲学——而不仅仅是工程学——将决定我们的创造物反映的是人性最好的一面还是最坏的冲动。
关键要点:
- Anthropic同时雇佣哲学家和工程师来开发伦理AI框架
- Amanda Askell通过对话而非编码塑造Claude的个性
- 这种方法产生了对道德问题令人惊讶的微妙回应
- 公司在日益增长的公众AI焦虑中平衡创新与谨慎
- 哲学家的价值观同时影响着聊天机器人和企业慈善事业

