AI音声技術を悪用した金融詐欺の可能性
近年、AI技術の急速な進化に伴い、新たな詐欺手法が登場しています。UIUCの研究者リチャード・ファン氏、ディラン・ボウマン氏、ダニエル・カン氏は、OpenAIの最新モデル「ChatGPT-4o」を使用した音声による金融詐欺の可能性を指摘しました。このモデルはテキスト、音声、ビジョン入力・出力を統合し、高度な機能を持っていますが、その特性を悪用することで低から中程度の成功率で詐欺が行えることが示されています。
研究結果と発見
研究では、銀行振込やギフトカード情報の盗み取り、暗号通貨送金、SNSやGmailアカウントへの不正アクセスなど、多様な詐欺手法が検討されました。AIエージェントは音声対応のChatGPT-4o自動化ツールを活用し、ウェブページ間を移動しながらデータ入力や二要素認証コード管理など特定の指示に従います。
実験的に行われたこの研究では、本物のウェブサイト(例:Bank of America)上で架空の被害者としてシミュレーションする形で進められました。その結果、多くの場合で成功率は20%から60%となり、中でもGmailからの資格情報窃取は60%、暗号通貨送金とInstagramからの資格情報窃取は40%という成果でした。これら詐欺行為には平均0.75ドルしかかからず、大規模な利益が狙えることも明らかになりました。
OpenAIの対応
OpenAIは、安全対策強化に向けた取り組みを続けており、新しい「o1モデル」は以前よりも脆弱性が改善されています。このモデルは意図的な悪用試みに対して高い耐性を持つことが確認されており、安全評価でも高得点を獲得しています。また、このような学術研究から得られるフィードバックも活用し、更なる安全性向上に努めています。
一方で、他社製品でも同様のリスクが存在するため、新技術導入時には慎重な配慮とともに適切なセキュリティ対策が求められます。このような新しいツールがもたらす潜在的ダメージについて理解し、防御策を講じることは急務です。
Source link
GIPHY App Key not set. Please check settings