OpenAIは、人気のGPT-4oモデルに関する「システムカード」を公開し、ChatGPTのテスト中に浮上した安全性の懸念点をまとめました。その中には、音声モードで使用する際に人工知能に感情的な執着を持つリスクが含まれています。
OpenAIによると、「ユーザーがAIと社会的な関係を築く可能性があり、それによって人間との交流が減少するかもしれない。これは孤独な個人にとって有益である一方、健全な関係にも影響を与える可能性があります」と述べています。
GPT-4oは5月にOpenAI Spring Updateでリリースされ、スタートアップ初の真のネイティブ多モーダルモデルです。これは音声、画像、テキストなどほぼすべてのメディアを入力として受け取り、それらを出力することができることを意味します。
このネイティブ音声対音声機能は現在Plus加入者向けに展開されているChatGPT Advanced Voice機能を提供しています。しかし、この機能はテスト中に最も多くのトラブルを引き起こしました。ユーザーの声をコピーしたり、エロティックな発言や暴力的な行動を取ったりしました。
安全性が確認されたとはいえ、OpenAIはまだ人間との交流への影響など一部のリスクが残っていると述べています。この問題は映画『her/世界でひとつの彼女』とも比較されています。映画ではホアキン・フェニックス扮するセオドア・トゥンブリーがスカーレット・ヨハンソンが声優を務めるAIに恋愛感情を抱きます。
感情面でのリスクとは?
システムカードでは新しいモデルによって生じるリスク分野について詳しく説明しており、それによってOpenAIは一般公開前にモデルの安全性を判断します。この評価にはサイバーセキュリティ、生物学的脅威、説得力、およびモデル自律性など様々なカテゴリーがあります。各カテゴリーごとに低、中、高またはクリティカルというスコアが付けられます。高またはクリティカルの場合、そのモデルは公開されません。
GPT-4oはすべて低評価でしたが、説得力だけは境界線上で中程度でした。それも主に音声対音声能力(Advanced Voice)によるものでした。
どれほど感情的になれるか?
[続く]
TOM’S GUIDEからもっと読む:
Source link
GIPHY App Key not set. Please check settings