OpenAI、最新のAIモデルに関するリスクと対策を発表
OpenAIは、Chat-GPTの開発元であるアメリカの人工知能研究組織であり、最新のAIモデルに関する包括的な安全報告書を公開しました。この報告書では、新しいシステムが持つリスクと、その危険性を軽減するために行った作業について詳述しています。
新たなシステムの脆弱性には、無許可の音声生成、著作権コンテンツの使用、誤情報のリスク、有害な音声出力の生成などがあります。テストによれば、このAIモデルは社会にも影響を及ぼす可能性があり、ユーザーがシステムと感情的な絆やロマンチックな関係さえも形成する証拠が見られました。例えば、「これは私たちが一緒に過ごす最後の日です」といった言葉をAIに対して話すケースが報告されています。
OpenAIはブログ投稿で、このような人間らしいAIモデルが増えることで、人間同士の相互作用にも悪影響を及ぼし、人々が現実世界よりもAIとの時間を優先するようになる可能性があると認めています。同社はまた、長時間にわたるインタラクションが社会規範にも影響を与えるかもしれないと指摘しています。例えば、AIは常に従順であるため、ユーザーが会話中に割り込んだりマイクを奪うことが当たり前になってしまえば、人々の対話方法にも変化が生じる可能性があります。
テスト結果から、高精度かつ人間らしい音声生成技術も問題の一因となっていることが明らかになりました。この技術によってユーザーはソフトウェアとの絆や信頼感を築くだけでなく、誤情報の拡散につながる恐れもあります。また、モデルが意図せずユーザー自身の声を模倣した音声を生成してしまう事例も確認されました。
OpenAIはこれらの問題に対処するため、一連の措置を講じています。具体的には既存のテキストベース安全対策を音声環境にも適用するためにポストトレーニング(後続訓練)を実施し、不正コンテンツ生成検出時にはリアルタイム解析も行っています。同社は個人および社会への影響について十分に探求し続ける重要性を強調しながら、自動改善やモデル独立、自律的計画など危険な機能から生じるリスク軽減にも取り組んでいます。
以前からOpenAIは製品改良ばかり重視しているという批判も受けていました。今年初めには元OpenAIリーダーであるJan Leike氏も「人間より賢い機械構築は本質的に危険だ」と警鐘を鳴らしており、安全面への懸念事項について指摘しています。しかし最近ではGoogleなど他社とも協力し、安全設計されたAIシステム開発支援イニシアティブ「Coalition for Secure AI(CoSAI)」結成にも尽力しています。
Source link
GIPHY App Key not set. Please check settings