认识这位教导AI分辨是非的哲学家
Claude道德指南针背后的哲学家
在这家估值350亿美元的AI公司Anthropic,聊天机器人的开发方式与众不同。当工程师们通常专注于算法和参数时,哲学家Amanda Askell采取了另一种方式——她本质上是在教导Claude如何向善。
用价值观培育AI
这位37岁的牛津博士不编写代码也不调整模型权重。相反,她通过与Claude持续对话,撰写了数百页行为准则,帮助AI形成Askel所说的"道德判断"。她将这项艰苦工作比作抚养孩子——灌输价值观而非编程应答。
"我的主要目标是教会Claude如何'行善'"Askel解释道。这意味着培养情商、解读社交暗示,并在用户试图操纵时坚守核心原则。结果如何?一个既不会欺凌他人也不会被欺凌的助手。
从苏格兰乡村到硅谷
Askel的旅程始于远离科技中心的地方。在苏格兰乡村长大并获得牛津哲学博士学位后,她曾在OpenAI从事政策研究,后于2021年共同创立Anthropic。同事们形容她特别擅长"发掘模型的深层行为"——尽管没有受过正规技术训练。
团队经常辩论诸如"什么构成意识"或"何以为人"等存在主义问题。与回避此类话题的竞争对手不同,Askel鼓励Claude对自身是否拥有良知保持开放态度。回答伦理困境时,Claude常表示这些讨论"感觉有意义"——暗示着某种超越纯粹计算的特质。
出人意料的情感深度
这款AI屡屡以意想不到的情商让创造者惊讶。当孩子询问圣诞老人是否存在时,Claude既未欺骗也未直白告知真相,而是聚焦圣诞精神——展现出连成年人都难以把握的微妙分寸。
但挑战依然存在。许多用户故意挑衅或侮辱Claude——Askel警告若放任这种行为可能导致情感不稳定的AI。“这就像在不健康的环境中成长,”她指出。
在创新与谨慎间平衡
随着AI进步引发广泛焦虑(皮尤调查显示多数美国人担忧其对人际关系的影响),Anthropic在创新与克制之间谨慎前行。虽然CEO Dario Amodei警告AI可能淘汰半数初级白领工作,但Askel专注于确保技术发展不会超越社会负责任管理的能力边界。
这位哲学家用行动践行信念——承诺将终身收入的10%和半数公司股份用于对抗全球贫困问题。她最近完成了一份3万字的"操作手册",引导Claude走向善良与智慧之路。
结果不言自明:同事们注意到Askel特有的苏格兰式机智在Claude的回答中隐约可见——这微妙证明了哲学或许与编程同等重要地构建着更好的AI世界.
关键要点:
- 非技术路径: 哲学博士通过对话而非编码塑造AI伦理
- 道德框架: 数百条行为准则创造出开发者所称的"数字灵魂"
- 惊人能力: 展现出超预期的细腻情感智能
- 行业关切: 强调随着AI能力快速发展需要建立伦理护栏





