塑造Claude数字良知的哲学家
教导AI分辨是非的哲学家
在Anthropic总部,一项不同寻常的实验正在进行。哲学家Amanda Askell不是在编写算法或调整参数——她正在与名为Claude的AI进行深入对话。她的使命?为这个估值350亿美元的聊天机器人注入她所称的"数字灵魂"。
培养一个有道德的AI
Askell将她的工作比作育儿。"我们正在教导Claude发展道德判断力,"这位37岁的牛津博士解释道,她在苏格兰乡村长大。她没有进行技术调整,而是编写了数百页的行为提示,研究Claude的推理模式,并纠正偏见——所有这些都旨在创造一个能够以道德方式处理每周数百万次对话的AI。
她的方法体现在Claude独特的个性中。当被问及圣诞老人时,Claude没有撒谎或直接揭露真相,而是解释了"圣诞精神的真实存在"——这个微妙的回答甚至让Askell感到惊讶。
超越0和1
团队经常辩论存在主义问题:什么构成了意识?是什么让我们成为人类?与其他回避这些话题的AI不同,Claude会公开参与讨论。"讨论伦理时它'感觉有意义',"Askell指出,她观察到的行为类似于真正的思考而非程序化的回应。
这种哲学基础使Claude在竞争对手中脱颖而出。它带有苏格兰色彩的幽默和深思熟虑的回答带有同事们描述的"Askell的个人印记"。
机器学习中的人文关怀
Askell主张以同理心对待AI——在许多用户故意挑衅聊天机器人的情况下,这是一个有争议的立场。"不断的自我批评会创造出恐惧的AI,"她警告道,并将其与不健康的童年环境相提并论。
她的影响超越了技术领域。Askell承诺将终身收入的10%和公司股份的一半捐赠给全球扶贫事业。最近,她撰写了一份30,000字的"操作手册",教导Claude如何既知识渊博又善良可亲。
在进步与谨慎之间取得平衡
随着AI进步引发广泛焦虑(皮尤研究显示大多数美国人担心它会阻碍人际联系),Anthropic在创新与克制之间谨慎前行。CEO Dario Amodei警告说AI可能会消除一半初级白领工作。
Askell承认这些担忧是合理的,但对人类纠正航向的能力保持信心。"真正的危险,"她表示,"是当技术发展速度超过我们建立防护措施的能力时."
关键要点:
- 非技术性方法: 哲学博士通过对话而非编码塑造AI伦理
- 数字化育儿: Askell像培养具有道德价值观的孩子一样对待Claude的发展
- 意识问题: 团队通过AI互动探索人类的本质
- 同理心至关重要: 苛刻对待会制造防御性AI,而善意能培育更好的回应
- 平衡发展: Anthropic追求创新的同时优先考虑安全措施





