LLM台頭前夜にやるべきだったこと:失われた「準備期間」とエンジニアの生存戦略


はじめに:なぜ「毒消し」の前に「毒」を飲んでしまったのか

最近、つくづく思うことがある。

「なぜ、LLM(大規模言語モデル)がこれほど台頭する前に、ベーシックインカムや異次元のリスキリング政策を準備しておかなかったのか?」と。

イタリアがChatGPTの初期に一時禁止措置をとったように、本来であれば、技術が社会を混乱させる前に「防波堤」を築くべきだった。しかし現実は、社会問題化し、犠牲者が出始めてから慌てて対応しようとしている。

今回は、AI議論のパートナーであるAI(Gemini)と議論した、「なぜ政策は後手に回ったのか」、そして「この状況下で個人はどう生き残るべきか」についての考察をまとめたい。


1. 予測のズレと「ペース・プロブレム」

技術の進化は指数関数的だが、法整備や社会合意は直線的にしか進まない。この「ペース・プロブレム」が、LLMの登場で致命的な差となって現れた。

最大の問題は、「AIが仕事を奪う順序」の予測が外れたことだ。

かつては「単純労働から代替される」と思われていたが、現実にLLMが直撃したのはプログラマー、翻訳家、ライターといった「クリエイティブな知的労働(ホワイトカラー)」だった。政府が推進していた「プログラミングなどのリスキリング」は、逃げ込んだ先で崖崩れが起きたようなもので、一瞬で陳腐化してしまったのだ。

2. 欧州の「慎重さ」と日本の「楽観」

世界を見渡すと、AIに対するスタンスには明確な違いがある。

  • 欧州(EU): 「予防原則」を重視。リスクが払拭されるまで規制し、人権や雇用を守ろうとする(例:イタリアの対応)。
  • 日本・米国: イノベーションや市場原理を優先。特に日本は「少子高齢化・人手不足」という切迫した課題があるため、AIを脅威としてではなく「労働力を埋める救世主」として、副作用を考慮せず飲み込もうとする傾向がある。

日本は「失業者が溢れてから会議を始める」という後手後手の対応になりがちだ。本来なら、LLMの兆候が見えた数年前から、被害が出る前に発動する準備体制(動的なセーフティネット)が必要だったはずだ。

3. 今から求められる「次世代セーフティネット」

では、今からでもどのような制度が必要なのか。議論の中で挙がったのは以下のようなアイデアだ。

  • セクター別・変動型ベーシックインカム(TBI): 全国民一律ではなく、AIによる代替率が高い業種から順次適用される過渡的な給付。
  • AIデータ配当: AIは人類のデータを学習して賢くなった。AI企業に課税し、その利益を「配当」として国民に還元する仕組み。
  • ヒューマン・イン・ザ・ループの法制化: 重要な意思決定(医療、司法、融資など)において、最終責任者として「人間」の介在を義務付け、雇用を確保する。

4. 個人の生存戦略:「物理」という防壁

政策が追いつかない以上、個人は自衛するしかない。議論の中で見えてきた、エンジニアとしての生存戦略は「デジタルと物理の壁(Physical Firewall)」を築くことだ。

LLMはコードを書けるし、文章も生成できる。しかし、「物理的な実体」には触れられない。

  • ハードウェアへの介入: ジャンクPCの修理、自作PCの構築、ラズパイの配線。これらはAIが最も苦手とする「泥臭い現実」だ。
  • 「実装者」から「責任者」へ: AIにコードを書かせ(バイブコーディング)、人間はその成果物の「正しさ」と「責任」を持つオーケストレーターになる。
  • マイクロビジネスの展開: 修理業や独自IPの創作など、AIの影響を受けにくい、あるいはAIを使い倒せる小規模なビジネスを持つ。

おわりに

社会システムの整備は重要だが、それを待っていては手遅れになる可能性がある。

我々は「AI開発者天国」でありながら「実験場」でもある日本において、「AIを使い倒すスキル(上位レイヤー)」と、「AIが手出しできない物理スキル(低レイヤー)」の両方を持ち合わせる「フルスタック」な生存者を目指すべきなのだろう。


コメント

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です