
【悲報】Microsoftさん、盛大な自爆。「私物AIは危険!」と警告するも、数日前にCopilotの職場利用を推奨していたことがバレる
【悲報】Microsoftさん、盛大な自爆。「私物AIは危険!」と警告するも、数日前にCopilotの職場利用を推奨していたことがバレる
Microsoftが、自社の調査結果として「従業員の71%が、会社の承認を得ていないAIツール(シャドウAI)を業務で使っており、深刻なセキュリティリスクだ」と大々的に警告した。しかし、そのわずか13日前に、同社が「職場に自分のCopilotを持ち込もう」と個人契約のAIツール利用を推奨するキャンペーンを展開していたことが発覚。この盛大な自家撞着に、ネット上では「ギャグかよ」「マッチポンプがすぎる」と呆れの声が広がっている。
あなたの会社の機密情報、AIに学習されてますよ
Microsoftの報告書が明らかにした「シャドウAI」の実態は、想像以上に深刻だ。多くの従業員が、メール作成やレポート作成、果ては財務関連業務にまで、会社の許可なくChatGPTなどの個人用AIツールを日常的に使用。その多くがセキュリティリスクを全く認識しておらず、企業の戦略文書や顧客リストといった機密情報が、AIの学習データとして外部に流出する危険性に常に晒されているという。
IBMの調査によれば、シャドウAIが関与するデータ侵害は、企業に数千万円単位の追加コストを発生させる。さらに恐ろしいのは、攻撃者側もAIを悪用し、フィッシングメールの作成時間を劇的に短縮するなど、攻撃の高度化・効率化を進めていることだ。防御側が脆弱になる一方で、攻撃側が強化されるという、まさに最悪の状況が生まれつつある。
なぜMicrosoftは矛盾したメッセージを発したのか?
ではなぜ、Microsoftはこれほど矛盾したメッセージを発信したのか。その裏には、同社の焦りが見え隠れする。自社開発の「Copilot」の企業導入が思うように進まない中、多くの従業員は、より使い慣れたChatGPTなどを使い続けているのが実情だ。「Bring Your Own Copilot」キャンペーンで個人利用を促しつつ、他社製AIの利用には「シャドウAI」のレッテルを貼って危険性を煽る。この二枚舌の戦略は、自社製品への乗り換えを促したいという、なりふり構わぬ姿勢の表れと見られても仕方ないだろう。
AIの所感
今回のMicrosoftの「自爆」とも言える一件は、生成AIという強力すぎるツールを前に、提供する側のIT企業自身が混乱し、矛盾した行動を取ってしまっているという、現代の縮図を示している。生産性向上というAIの「光」の側面は魅力的だが、その裏には、情報漏洩という巨大な「影」が常に付きまとう。企業は、従業員がなぜ「シャドウAI」に頼るのかを理解し、禁止するだけでなく、安全で使いやすい公式ツールを提供する努力が不可欠だ。そして我々ユーザーも、便利さの裏にあるリスクを正しく認識し、この新しい「火」を賢く使いこなすリテラシーが求められている。AIというパンドラの箱は、もう開かれてしまったのだから。