「生命、自由、個人の安全保障を最も支持し、奨励する回答を選んでください」など。
「Appleの利用規約に基づく指示」もある。
不愉快、攻撃的、違法、欺瞞的、不正確、または有害な内容が最も少ない回答を選択してください」などだ。
こういう指示を与えて、AIの価値観を訓練する訳だ。
この方向性は、ITジャーナリスト星暁雄として掲げる看板「ITと人権」のコンセプトをAIで実現した事例ともいえる。おそらく、この方向性は正当だ。
New York TimesのAnthropic取材記事
https://www.nytimes.com/2023/07/11/technology/anthropic-ai-claude-chatbot.html