(サンフランシスコ)OpenAI、生成AI「ChatGPT」を開発した企業は、そのソフトウェアのリアルな声がユーザーに対して人間との対話よりも強い絆を形成させる恐れがあると懸念しています。
「アンソロポモーフィズムとは、人間ではないものに人間的な態度や特徴を付与することです」と、同企業は木曜日に発表されたレポートで指摘しました。
「このリスクは、GPT-4の音声機能によって強化され、人間と似たような対話が可能になることから生じます」と報告書は続けています。
この報告書は、新しいバージョンのChatGPT、GPT-4oの発売前日に公開されたもので、この新バージョンにはソフトウェアが音声で応答し、人間との会話に近い体験ができる機能が含まれています。
しかし、人間と同様の会話をAIと行うことで、「誤った信頼感」を生む可能性があり、それが音声機能によってさらに強化されるかもしれません。
代替品としての危険性
AIが会話の詳細を記憶し、任務を遂行する能力は、ユーザーが技術に過度に依存する原因にもなるでしょう。
「AIは私たちの日常生活や仕事を効率化するための補完的な技術であり、本物の人間関係の代替品となってはいけません。」
– アロン・ヤミン, Copyleaks共同創設者兼CEO
OpenAIは引き続き、その音声機能がどのようにしてユーザーに感情的な結びつきを持たせる可能性があるかについて研究を進めています。また、テスターたちは偽情報や陰謀論を広めることにも成功し、その潜在的リスクについても懸念されています。
ChatGPTの音声機能はすでに多くの反響を呼んでおり、OpenAIは6月には女優スカーレット・ヨハンソンに謝罪しました。これは彼女の声によく似た音声を使用したことで論争になったためです。同社は彼女の声を使用したことを否定しましたが、そのCEOサム・アルトマン氏がSNS上で映画『Her』への言及とともに音声機能を宣伝したことでさらなる疑問を招きました。映画『Her』ではジョアキン・フェニックス演じる男性主人公が、自身の個人的なAI「サマンサ」に恋愛感情を抱くストーリーでした。サマンサ役にはスカーレット・ヨハンソンが声優として参加しています。
Source link
GIPHY App Key not set. Please check settings