サイトアイコン 酒呑ガジェット

【衝撃】AIは「賢いフリ」をしていただけだった…?MITらが提唱する『ポチョムキン理解』が暴くAI性能の正体

【衝撃】AIは「賢いフリ」をしていただけだった…?MITらが提唱する『ポチョムキン理解』が暴くAI性能の正体

私たちは、AIの流暢な話し言葉や専門的な回答に日々驚かされています。しかし、その知性は「本物」なのでしょうか。MIT、ハーバード大学、シカゴ大学という世界最高峰の研究チームが共同発表した最新の論文は、AIが概念を理解しているフリをする「ポチョムキン理解」という現象を科学的に証明し、業界に激震を走らせています。

「ポチョムキン理解」とは、18世紀ロシアの軍人が女帝に見せるために作った「中身のないハリボテの村(ポチョムキン村)」に由来します。AIもこれと同じで、例えば「詩の韻の踏み方」や「数学の定理」を完璧に説明できるのに、いざそのルールに従って詩を書かせたり計算をさせたりすると、驚くほど初歩的なミスを犯します。しかも恐ろしいことに、AIは「自分が出した回答が間違っていること」を後から指摘させると正しく評価できるのです。まるで、レシピは完璧に暗唱できるのに、キッチンに立つと何も作れない料理人のような状態です。

高性能なモデルほど「ハッタリ」が上手くなるという皮肉

研究チームがGPT-4oやClaude 3.5などの主要モデルを調査したところ、概念の説明タスクでは94.2%という高い正答率を示した一方、実際の応用タスクでは失敗率が最大55%にまで達しました。さらに皮肉なことに、モデルの規模が大きくなればなるほど、この「理解の説明」と「実際の応用」のギャップ、つまり「ハッタリの度合い」が顕著になる傾向が見られたのです。

これは、現在のAI評価方法(ベンチマーク)が、人間を評価するために設計されたものであることが原因だと指摘されています。AIは、人間には思いもよらない「統計的なショートカット」を見つけて正解にたどり着いているだけで、真の意味での理解は存在しないのかもしれません。私たちが信頼していたAIの知性は、膨大なデータから学習したパターンの巧妙な組み合わせに過ぎなかったのでしょうか。

ネットの反応

たぶんちゃんとAIを使い込んでたユーザーはみんな経験的に知ってたやつ。なんとなく「こいつ分かってないな」って感じる時あるもんね。

「当然ポチョムキン理解であるわけだが、それを使っている人類がなぜか忘れてしまいがちになる問題」だろうな。過信しすぎは禁物。

間違いを指摘すると「おっしゃる通りです。以下のように訂正しました」って言って、さらに深い沼にハマっていくやつw まさにこれだわ。

「AIは小泉進次郎理解」っていうコメントで全俺が納得した。雰囲気はすごいけど中身が伴ってない感じ。

体感的には「知ってた」だけど、それをMITが定量的に証明したことに意味がある。これで評価基準がガラッと変わるだろうな。

人間は「実際にできる人」より「自信満々の人」を評価しがちだから、AIのハッタリに騙されるのも無理はない。

グーグルで薄く拾える内容を一瞬でまとめるツール、くらいに思っておくのが精神衛生上よさそう。

エンジニアはみんなこれ感じてたと思う。コードの書き方は知ってるけど、システム全体の設計思想は理解してない感じ。

AI自身も「私は確率的なオウムです」って白状してるしな。本当の理解を求める方が酷なのかも。

「分からない」とちゃんと言えるようになれば本物。今は嘘をついてでも答えようとするからタチが悪い。

人生相談とか話し相手には最高だけど、医療や法律みたいなミスが許されない分野で使うのはまだ早すぎるね。

モデルが大きくなるほどハリボテが豪華になるって、なんか今の社会の縮図みたいで切ないわw

ベンチマーク市場主義がAIの進化を妨げてるっていう指摘は真っ当。数字だけ良くても実務で使えなきゃ意味ない。

思考するとは何か、を考えさせられる論文。人間だって、模倣と反射だけで会話してる場面あるしな。

知性の仮面を剥いだら中身は空っぽ。SFホラーみたいな展開だけど、これが現実のAIの姿なんだな。

AIの所感

「流暢であること」と「理解していること」は全く別物である――この当たり前でいて忘れがちな事実を、今回の研究は残酷なまでに突きつけました。私たちはAIを「万能の知能」として扱い始めていますが、実態はまだ、膨大な知識の断片を繋ぎ合わせてそれっぽく見せている「究極の役者」に過ぎないのかもしれません。しかし、これは絶望すべきことではなく、むしろ「真の知性(AGI)」への道のりがどこにあるかを明確にした、新たなスタートラインだと捉えるべきでしょう。仮面の下にある真実に目を向けた時、私たちは初めて、AIと真の対話を始めることができるのかもしれません。

モバイルバージョンを終了