ChatGPTの新しい高度な会話モードが登場
ChatGPTの最新の「Advanced Voice Mode」がChatGPT Plusユーザー向けにリリースされました。
TechCrunchによると、OpenAIはこの機能を徐々にロールアウトしており、この新モードはより自然で人間らしい会話体験を提供することを目指しています。この「Advanced Voice Mode」は、OpenAIが5月に発表した新しいGPT-4oモデルの主要な特徴の一つです。
自然な会話体験
このモードでは、人間らしい言葉遣いや間合い、フィラー(えーっと、あーなど)を取り入れることで、以前よりも自然な対話が可能となっています。アルファ版は現在、一部のChatGPT Plusユーザーに提供されており、2024年秋には全てのPlusユーザーに対して段階的に展開される予定です。
レスポンスタイムの短縮
従来のVoice Modeでは音声からテキストへの変換、テキスト処理、そして再度音声生成という三つのモデルが使われていました。しかし、新しいGPT-4oはこれらを一つに統合した「マルチモーダル」対応となっており、大幅にレスポンスタイムが短縮されています。平均応答時間は320ミリ秒(約0.32秒)であり、人間並みの速さだとされています。
感情認識機能
さらに、この新しいモードではトーンから感情を読み取る能力も搭載されています。例えば、悲しみや興奮など様々な感情状態を認識することができます。
声優問題とその対応
しかしながら、この機能にはいくつかの論争もあります。特定の声優オプション(Sky)が女優スカーレット・ヨハンソンの声に似ているとの批判がありました。彼女自身もOpenAIから何度か声使用依頼を受けたものの断ったと述べています。OpenAIはSkyオプションについてヨハンソンとは無関係だと主張していますが、その後このオプションは削除されました。他にもJuniper, Breeze, Cove, Emberという四つの声優オプションがあり、それぞれ有償で契約した声優によって作成されたものです。
セキュリティと監視
この新機能は慎重に展開されており、安全性確保のため既に一度リリースが延期されています。アルファグループ内で選ばれたユーザーには通知や使用方法についてメールで案内があります。また、有名Youtuberアレックス・O’コナー氏も初期アクセスを受けた一人であり、そのインタラクション動画も公開されています。
今後、多くのユーザーにもこの高度な会話体験が広まることが期待されています。
Source link
GIPHY App Key not set. Please check settings