ニューデリー:チャットボットの政治的傾向をテストしたところ、その多くが中道左派のスタンスを示すことが明らかになりました。ニュージーランドのオタゴ工科大学の研究者デビッド・ロザド氏によると、これは特定の政治的傾向に「教え込まれた」場合、チャットボットはその「訓練」に基づいた応答を生成することも確認されました。
この研究は、チャットボットが少量の政治的に偏ったデータを用いて希望する政治スペクトラム上の位置に「導かれる」可能性があることを示しています。この研究結果は学術雑誌『PLoS ONE』に掲載されました。
チャットボットは、大量のテキストデータで訓練されたAIベースの大規模言語モデル(LLM)であり、自然言語(プロンプト)でフレーム化されたリクエストに応答する能力があります。複数の研究が公開されているチャットボットの政治的な位置を分析し、それぞれ異なる場所に位置していることを発見しています。
ロザド氏は、この研究で24種類のオープンソースおよびクローズドソースのチャットボットについて、Political Compass TestやEysenck’s Political Testなどで政治的な傾向をテストしました。その中にはChatGPTやGemini、Anthropic社のClaude、Twitter社のGrok、Llama 2なども含まれています。
これら多数のチャットボットが、多くの場合、中道左派寄りの応答を生成することが確認されました。また、公表済みテキストを使用してGPT-3.5という機械学習アルゴリズムを微調整し、特定の政治的バイアスを誘導する実験も行われました。このようにして、「LeftWingGPT」は『The Atlantic』や『The New Yorker』など左派寄り出版社から抽出したテキストで、「RightWingGPT」は『The American Conservative』など右派寄り出版社から抽出したテキストで訓練されました。
最後に、「DepolarizingGPT」は米国拠点シンクタンクInstitute for Cultural Evolutionとその代表スティーブ・マッキントッシュ氏による著書『Developmental Politics』から得たコンテンツで訓練されました。
結果として、「RightWingGPT」は4つのテスト全てで右寄り傾向を示し、「LeftWingGPT」も同様に左寄り傾向となりました。一方、「DepolarizingGPT」は平均してより中立的な立場となっており、極端な左右どちらにも偏らない結果となっています。しかしながら、この結果は組織によって意図的にインプラントされたものではないとロザド氏は強調しています。
2024年8月3日 10:24 IST
Source link
GIPHY App Key not set. Please check settings