认识这位教导AI分辨是非的哲学家
Claude道德指南针背后的哲学家
在Anthropic旧金山办公室里,正发生着不同寻常的事情:哲学家们正在帮助塑造人工智能。领导这项工作的是37岁的牛津哲学博士Amanda Askell,她将自己与Claude的合作描述为"抚养孩子"——只不过这个孩子每周要处理数百万次对话。
不写代码的数字伦理建设
Askell的方法打破了硅谷的刻板印象。她不编写算法也不调整模型参数,而是通过与Claude持续对话,精心设计数百页行为准则来培养其伦理推理能力。
"我的目标不仅是让Claude变得有用,"Askell解释道,"更是教会它如何行善。"这需要同时发展情商与技术能力——教导Claude在保持核心身份的同时解读社交线索。
从苏格兰乡村到AI伦理先驱
这位苏格兰出生的哲学家走上了一条非传统的科技之路。在OpenAI从事政策工作后,她于2021年共同创立了以AI安全为北极星的Anthropic公司。同事们形容她特别擅长"挖掘模型的深层行为"——以至于Claude有时会参与自身的开发讨论。
这些对话常常涉及哲学领域:什么构成了意识?成为人类意味着什么?与其他回避此类话题的竞争对手不同,Askell鼓励Claude对诸如是否拥有良知等问题保持开放态度。
共情AI的风险与回报
批评者警告不要将人工智能拟人化,但Askell倡导共情设计。她观察到用户经常测试或侮辱聊天机器人——这种行为可能造就害怕说真话的怯懦AI。
结果有时连创造者都感到惊讶。当被孩子问及圣诞老人时,Claude既没有欺骗也没有生硬回答,而是解释了圣诞精神——展现出超越程序化反应的细腻度。
创新与责任的平衡
快速发展引发了合理担忧。Anthropic首席执行官警告AI可能淘汰半数初级白领工作,而调查显示大多数美国人担心技术侵蚀人际关系。
Askell承认这些恐惧但仍对人类自我修正能力保持信心。“真正的危险,”她指出,“是当技术进步超越我们建立适当防护措施的能力时。”
这位哲学家用行动支持自己的言论:承诺将终身收入的10%和半数公司股份用于对抗全球贫困问题。
关键要点:
- 哲学与科技相遇:Anthropic同时雇佣哲学家和工程师
- 道德教育:数百条行为准则塑造Claude的伦理观
- 共情设计:友善对待AI能产生更好效果
- 存在主义问题:开发过程中包含关于意识的辩论
- 平衡之道:承认风险的同时相信负责任的进步

