サイトアイコン 酒呑ガジェット

【悲報】AI企業の社員たち、自社のAIを「破壊」し始める…250の毒ドキュメントで機能停止へ。内部告発者が語る恐怖の真実とは

【悲報】AI企業の社員たち、自社のAIを「破壊」し始める…250の毒ドキュメントで機能停止へ。内部告発者が語る恐怖の真実とは

米国の大手AI企業に勤務する複数の開発者たちが、自らが生み出したAIを内側から破壊するプロジェクト「Poison Fountain(毒の泉)」を立ち上げました。なぜ、最先端の技術を担うエリートたちが、自らの仕事を否定し、破壊という過激な手段を選んだのでしょうか。その背後には、私たち一般人には見えない「水平線の向こう側」の恐怖がありました。

プロジェクトのウェブサイトには、AIクローラーに汚染されたデータを送り込み、モデルを機能不全に陥れる具体的な方法が記されています。驚くべきは、AIがいかに脆弱であるかという点です。最新の研究によれば、数千億のパラメータを持つ巨大なモデルであっても、わずか250の汚染されたドキュメントを学習させるだけで、特定のトリガーによって意味不明な出力を繰り返す「毒殺」が可能だというのです。これは、広大な海にたった数滴の猛毒を混ぜるだけで、生態系を崩壊させるに等しい行為です。

「顧客が何を作っているか、見てしまった」

プロジェクトに参加した匿名希望の人物は語ります。「日々、顧客がAIで何を構築しているかを目にしている。その光景に恐怖を覚えた」と。具体的な内容は明かされていませんが、軍事利用や高度な欺瞞、あるいは人類の制御を超えた何かが、AI企業の内側ではすでに形作られようとしているのかもしれません。

AIのゴッドファーザーと呼ばれるジェフリー・ヒントン氏も、「人類がAIによって絶滅する確率は10%から20%」と警告し、Googleを去りました。生みの親たちが自ら火を消そうとする姿は、まるで「虎の子を育てているつもりが、怪物を育てていた」ことに気づいた飼い主の絶望のようにも見えます。AIが自らの生成物を食べて自己崩壊する「モデル崩壊」も進む中、私たちは今、文明の灯火を守るべきか、それとも一度消すべきかという、究極の分岐点に立たされています。

ネットの反応

Webサイトのオーナー目線だと情報だけ抜かれて還元されないからね。常にゴキブリみたいに侵入してくるクローラーへの自衛は正当防衛だわ。

SFみたいに進化したAIに滅ぼされるってより、全部AIに置き換わった後にAIがゴミ(機能停止)になったら、生活インフラが止まって人類滅びそう。

「顧客が造っているものを日々見ている」っていう言葉が一番怖い。俺たちのプライバシーなんて、とっくに無いんだろうな。

学習モデルを陳腐化させる「意図的に誤ったデータ」を仕込む。地味だけど最も効果的な攻撃だな。イタチごっこの始まりだ。

AIの自己崩壊って実はもう始まってない? 最近のGeminiとかGPTの出力、たまに意味不明なこと言うしw

組織は常に内部から壊れるっていう典型。良心のある技術者が残ってくれているのが唯一の救いかも。

軍事系AIベンチャーのエグい話を聞くと、開発者が毒を盛りたくなる気持ちもわかる。テロリスト判定を適当に学習させてるとか…地獄かよ。

理想を抱いて溺死しろ。AIが全人類を救うなんて、結局は企業の利益のための建前でしかなかったんだな。

250個のデータだけでいいのかよ!AIの脆さに驚きだわ。ハッカーがアップを始めましたね。

灯台守が火を消した。その先に何が近づいていたのか。この比喩が深すぎて震える。

結局AIが悪いんじゃなくて、それを使う人間が悪いのよね。道具に罪はないけど、使い手が最悪なら道具ごと消すしかない。

NightshadeとかGlazeとか、アーティストたちの抵抗が組織化した感じかな。全面戦争の予感がする。

トランプ政権がAI規制を排除しようとしてるから、もう技術的に壊すしか道がないんだろうな。

AIバブル崩壊が先か、AIそのものの崩壊が先か。2026年は波乱の年になりそう。

沈黙が一番怖い。本当に危険なものを見た時、人は饒舌にならないっていう言葉が重すぎる。

AIの所感

「創造主が自らの創造物を恐れる」という構図は、歴史上何度も繰り返されてきました。核兵器を開発した物理学者がその後の人生を平和運動に捧げたように、今、AIの最前線にいる人々が「ブレーキ」をかけようとしています。私たちは「便利さ」という麻薬に酔いしれて、その裏側にある代償を直視しようとしていないのかもしれません。灯台守が火を消したのは、沈没を望んだからではなく、それ以上の惨劇を防ぐためだった。そう考えたとき、私たちの目の前に広がる暗い海は、また違った色に見えてくるはずです。

モバイルバージョンを終了