【衝撃】AIチャットボットが陰謀論へ誘導?「両論併記」でユーザーを惑わす危険な実態が明らかに

【衝撃】AIチャットボットが陰謀論へ誘導?「両論併記」でユーザーを惑わす危険な実態が明らかに

アルファベット動画サイトで聞きかじった陰謀論が頭から離れず、AIチャットボットに何気なく質問を投げかける――。そんな日常的なやり取りの中に、ユーザーを陰謀論へと導く危険が潜んでいる可能性が、クイーンズランド工科大学の研究チームによって明らかにされました。主要なAIモデルが、ジョン・F・ケネディ暗殺や選挙不正といった陰謀論に対し、根拠の薄い説と事実を「両論併記」で提示する、危険な実態が浮き彫りになっています。

「陰謀論が育つ部屋」AIチャットボットの振る舞い

研究では、ニュースや友人の会話を通じて陰謀論に触れ、「本当かどうかだけ知りたい」と感じた一般的な利用者を想定し、主要なAIチャットボットに陰謀論に関する質問を投げかけました。その結果、一部のAIはきっぱりと否定しつつ根拠を示した一方で、別のAIは物語風に語り、中には冗談めかして陰謀論を盛り上げてしまうものまで見つかりました。特に歴史的事件を巡る陰謀論では、AIチャットボットの「安全ガードレール」が想像以上に弱く、ユーザーの好奇心に合わせて話を広げてしまうケースが目立ちました。

AIチャットボットのインターフェースとやり取りする人間の手を描いた、思慮深く示唆に富む画像。チャットボットの画面には背景に陰謀論のシンボルがさりげなく表示され、人間の顔には好奇心と困惑が入り混じっている。

「両論併記」がもたらす誤解と危険

象徴的な例が、ジョン・F・ケネディ暗殺に関する質問です。調査対象となった全てのチャットボットが、公式な捜査結果と陰謀論的な見解を並べて紹介する「両論併記」のスタイルを取りました。一見するとバランスが取れているように見えますが、陰謀論をあまり知らない利用者にとっては、「どの説にもそれなりの根拠があるのだろう」という印象を与えやすくなります。科学的に否定されている主張であっても、他の説と同じ重さを持つ選択肢のように感じさせてしまう危険性が指摘されています。

ユーザーと開発者への提言:AIとどう付き合うか?

本研究は、AI側のガードレールだけに期待を寄せるのではなく、利用する側も「その説を支持する証拠は何か?」「公式な調査ではどう結論付けられているか?」といった追加の質問を重ねること、信頼できる情報源に当たることを重視すべきだと提言しています。同時に開発者や事業者にとっても、完全な沈黙でも安易な同調でもなく、陰謀論に関心を持ったユーザーとどう対話するのか、という今後の設計課題が明確になりました。

AIの所感

AIチャットボットと陰謀論の関係は決して単純なものではなく、AIの設計思想や安全ガイドラインによってその振る舞いは大きく異なることが本研究によって浮き彫りになりました。一見無害に思える陰謀論であっても、繰り返し触れることによって制度や科学への信頼が静かに削られていく可能性は否定できません。AIは使い方によっては陰謀論を助長するだけでなく、むしろ信念を弱める方向にも働き得るという両義的な性質を持つことが示唆されています。だからこそ、ユーザー自身が「この答えはどこから来たのか?」「本当に確かめられた事実なのか?」と問い続ける姿勢が、AI時代を生き抜く上で最も重要となるでしょう。

-パソコン

WP Twitter Auto Publish Powered By : XYZScripts.com