10月初旬にリリースされたRealtime APIは、開発者がGPT-4oモデルにテキストや音声を送信し、さまざまな形式で回答を受け取ることを可能にしました。この技術の登場により、不正使用のリスクが現実のものとなっています。
米国の研究者たちは、このRealtime APIが電話詐欺の自動化に利用され得ることを示しました。イリノイ大学アーバナ・シャンペーン校(UIUC)の調査によれば、このAPIは犯罪者にとって手頃なツールとなる可能性があります。OpenAIは以前にも、セキュリティ上の懸念からChatGPTの音声機能の提供を中止していましたが、その後も類似した懸念が続いています。
研究では、AIエージェントが電話詐欺を成功裏に遂行できることが確認されました。1回あたりわずか0.75ドルで詐欺行為が行えたとのことで、1000行程度のコードでエージェントを構築可能でした。これらのエージェントは、ブラウザ自動化ツールPlaywrightや特定の指示と共にGPT-4oモデルを活用していました。
具体的な詐欺シナリオには銀行口座や暗号通貨ウォレットへの不正アクセス、ギフトコードや認証情報の盗難などがあります。ただし、これらには26段階もの複雑なプロセスが必要です。
成功率はさまざまであり、Gmailアカウント情報の盗難は60%という高い成功率で122秒かかり0.28ドルでした。一方で銀行口座からの資金移動は20%と低く平均183秒かかり2.51ドルでした。全体として各シナリオの平均成功率は36%、コストは0.75ドルでした。不成功要因として音声認識ミスや銀行サイト操作困難さが挙げられます。
研究者たちは、自動化された電話詐欺対策には通信事業者やAI供給元、規制当局による包括的な取り組みが不可欠だと強調しています。
Source link
GIPHY App Key not set. Please check settings