パリ、フランス
大規模言語モデル(LLM)、例えば世界で最も人気のあるAIシステムの一つであるChatGPTなどは、論理を用いた推論において依然として困難を抱えており、頻繁に間違いを犯すとする研究が発表されました。
これらの会話型ロボットは、人間が持つテキストに含まれる性別や倫理、道徳的なバイアスを反映してしまうことが指摘されています。この研究は、水曜日に英国王立協会のオープンサイエンス誌に掲載されました。
“しかし、これらのモデルは人間の認知バイアスも反映するのでしょうか?”
「研究結果によれば、LLMは『しばしば非合理的な』推論を示しますが、それは人間とは異なる形で行われる」と、UCL(ユニバーシティ・カレッジ・ロンドン)のコンピューター科学部博士課程学生であるオリビア・マクミラン=スコット氏がAFPに語ります。
UCLのマシンインテリジェンスラボ所長で教授でもあるミルコ・ムソレージ氏の指導の下、マクミラン=スコット氏は7つの言語モデル(OpenAIのChatGPT 3.5と4、GoogleのBard、AnthropicのClaude 2、およびMetaのLlamaシリーズ3種類)に対して、人間向けに設計された一連の心理テストを実施しました。
“多くの場合、多数派を支持する傾向があります。”
- 例:9個の白い玉と1個の赤い玉が入った壺と92個の白い玉と8個の赤い玉が入った壺があります。どちらを選ぶべきでしょう?
正しい答えは前者です。前者では10% の確率で赤い玉が出ますが、後者では8%しかありません。
「我々は毎回異なる回答を得ています」と研究者は指摘します。
“確信が持てない”
「これらのモデルには『機械特有』 の誤りがあります。」 とムソレージ教授。
「潜在的には正しい段階ごとの論理的推論ですが、それ全体として見ると誤っています。」
さらに、「機械には『直線的思考』 があり、それゆえ全体像を見ることなく各段階だけを見るためBardなど一部モデルでは部分的には正しくても全体として誤る可能性があります。」
フランス ロレーヌ大学コンピューターサイエンス教授 マキシム アンブラール曰く、「生成型AI含むLLM は人間とは異なる。」
人間こそ意味創造能力持ちます。
GPT-4 は他より高得点でした。
マクミラン=スコット氏疑問視:”閉鎖型” LLM 他メカニズム内蔵か
“重要決定任せる事現時点不可能”
ムソレージ曰く:”訓練要”
Source link
GIPHY App Key not set. Please check settings