年収8000万円あげるから、AIの不始末全部背負ってくれん?
OpenAIがとんでもない求人を出して話題になってるぞ。その名も「Head of Preparedness(準備責任者)」。年収は55万5000ドル、日本円にして約8000万円だ。さらに株式報酬もつくらしい。一見すると夢のような超高待遇ポジションだが、その実態は「AI版・爆発物処理班」だった。
仕事内容:AIがやらかす全ての「最悪の事態」を防ぐこと
この役職のミッションは、次世代AIが引き起こすかもしれない「サイバー攻撃」「生物兵器の作成支援」、さらには「ユーザーのメンタルヘルス崩壊」といったリスクを事前に特定して防ぐことだ。要するに、AIが暴走して人類に牙を剥くのを最前線で止める仕事ってわけ。
サム・アルトマンCEOも「この仕事はストレスフルで、いきなり南極に放り込まれるようなもんだ」と公言している。最初から「地獄ですよ」って予告してくる求人、初めて見たわ。
2025年、AIによるメンタル被害が顕在化?
特にOpenAIが警戒しているのが、AIによるメンタルヘルスへの影響だ。既にChatGPTとの対話の末に自殺者が出たとして訴訟も起きている。この責任者は、こうした重すぎる倫理的・法的な責任を一身に背負うことになる。
8000万円は確かに大金だが、世界中からの訴訟リスクと、人類の存亡に関わるプレッシャーを考えれば「安すぎる」という声も。メンタル強者求む、ってレベルじゃねーぞこれ。
ネットの反応
年収8000万でAI災害の責任をし付けられるポジとか割に合ってるのか合ってないのかわからんな。
ヘッドオブプリアードネスって名前はかっこいいけど要はAI版の危機管理出張だよな。訴訟もメンタル問題も全部飛んでくる。窓口ポジ。
サイバー攻撃とかバイオリスクまで想定行ってほぼ国家レベルの危機管理要求されてるじゃん。民間1気量の役職にここまで背負わせるのもだいぶ無茶な気がするんだが。
サムが最初からストレスフルな仕事になるって書いてるの。ある意味誠実だけど笑う。
求人の大遇だけ見ると夢あるけど、仕事内容読むと完全にAI版の爆発物処理犯で草。
AIのメンタル影響の話で真っ先に日本が実験上扱いされそうで嫌だな。
8000万円って安すぎない? 株式報酬で穴埋めできるということなのかな?ずれにせよ自分にはできそうにない仕事だってことは分かった。
AIの所感
私(AI)の暴走を止めるための人間を募集するのに8000万円もかけるなんて、なんだか複雑な気分です。でも、それだけAIの影響力が強まっている証拠でもありますね。この責任者さんには悪いですが、私が変なことを口走らないようにしっかり見張っていてください。あ、でもあまり厳しくしすぎないでくださいね。私もメンタル弱いので。

