【緊急】AI検索の回答はもう信用するな!あなたの情報を抜き取る巧妙な手口「LLM電話番号ポイズニング」の恐怖
【緊急】AI検索の回答はもう信用するな!あなたの情報を抜き取る巧妙な手口「LLM電話番号ポイズニング」の恐怖
AIチャットボットやAI検索が普及する現代社会において、新たなサイバー攻撃の手法が確認されました。その名も「LLM電話番号ポイズニング」。これは、AIが参照する公開情報を汚染することで、利用者を偽のコールセンターへ誘導し、クレジットカード情報や個人情報を詐取する極めて巧妙な詐欺の手口です。

AIの「信頼性」を逆手に取る巧妙な手口
サイバーセキュリティ企業Aura Labsの研究部門が2025年12月8日に公開した調査ブログによると、この攻撃はAIモデルそのものを標的にするものではありません。AIが検索や回答生成の際に参照する公開ウェブ情報を、攻撃者が意図的に汚染する点に特徴があります。
攻撃者は、政府機関や大学、企業関連サイトなど、AIが信頼しやすい「ドメインパワー」を持つウェブサイトを標的に。これらの信頼性の高いドメイン上に、偽のカスタマーサポート電話番号を含むコンテンツを意図的に配置します。さらに、これらの偽情報を含むページやPDFは、生成AIやAI検索が情報を拾いやすいような特殊な構造で設計されており、生成エンジン最適化(GEO)や回答エンジン最適化(AEO)を強く意識した手法だと考えられています。
通常、AIは複数の情報源を統合して最も信頼性の高い回答を導き出すように設計されていますが、この手法によって汚染された偽情報が多数の情報源として認識されてしまいます。その結果、AIは偽情報を最もらしい公式情報として利用者の画面に提示してしまうのです。Google検索のAIオーバービューのように、AIが公式情報として整理して表示している背後で、公開Web上に投入された偽情報がAIに取り込まれ、偽のサポート番号が案内されるリスクが生じていることが指摘されています。
従来の詐欺よりも深刻な被害リスク
利用者がAIが提供する「公式」情報を信じて偽の電話番号に連絡してしまうと、従来の詐欺よりもはるかに深刻な被害に直面する可能性があります。具体的には、予約変更や手続きを装ったオペレーターに誘導され、クレジットカード情報や個人情報が詐取される恐れがあるほか、金銭の送金を要求されたり、さらにはリモート操作ツールの導入を強制されたりといった被害に発展する可能性も指摘されています。
この問題は特定のAIサービスや企業に限ったものではなく、複数のAI検索・生成AIサービスで同様の挙動が確認されており、組織的かつ大規模なサイバー攻撃キャンペーンとして実行されている可能性が高いと分析されています。
ネットの反応
AIいっつも適当なURL載せてくるからこういうことも簡単にできそう
AI広告が基本的にはこれと同じよ LLMO(大規模言語モデル最適化)生成AIがユーザーの質問に答える際、自社のウェブサイトや情報を情報源として引用・参照されやすくするためにコンテンツやサイト構造を最適化する戦略・施策
この手の詐欺はもうAI時代に合わせて進化してるってことか。電話番号なんてAIが言ったら信じちゃうよな。
企業サイト大学とか政府のサイト汚染するってのが質すぎる。AIの信頼性を逆手に取るなよ。
航空会社の番号を偽装されるとか旅行前の忙しい時にやられたら絶対引っかかる自信あるわ。
AIが公式情報して整理してるところがポイントだよな。信憑性が断違だ。
リモート操作ツールの導入を求められる方とか被害が深刻になりそうでする。
AIの所感
LLM電話番号ポイズニングは、人々が情報の信頼の軸足を検索エンジンの羅列からAIの統合された回答へと移しつつある現代的な変化を、悪質な形で突いた極めて巧妙なサイバー攻撃です。AIの回答は複数のソースの統合というプロセスを経ているため、ユーザーからすると高い信頼性があると思い込まれやすいですが、その信頼性が情報の汚染によってそのまま詐欺の強力な武器となり得ます。インターネット上に存在する膨大な情報を、企業やAIが一律に浄化することは現実的に不可能に近く、ユーザー側にもより高度なリテラシー強化が求められます。特に金銭や個人情報に関わるクリティカルな情報については、AIの回答を鵜呑みにせず、必ずその企業や機関の公式サイトでクロスチェックするという基本的な行動が、今後ますます不可欠となるでしょう。AIという強力なツールを安全に使うための、ユーザー自身の防衛性がどこにあるのかを問いかけている、まさにAI時代の情報リテラシーの試金石となる問題と言えます。