「信仰」としてのAGI——汎用人工知能はなぜ陰謀論と同じ構造を持つのか
「AGIは10年以内に実現する」——この言葉を、あなたは何度耳にしただろうか。汎用人工知能(AGI: Artificial General Intelligence)の到来を予言する声は、テクノロジー業界で日常的に聞かれる。だが、MITテクノロジーレビューが提示したのは衝撃的な視点だった。AGIをめぐる議論が、陰謀論と驚くほど似た構造を持っているというのだ。技術的な議論が「信仰」に変質する瞬間——それは、テクノロジー業界が直面する深刻な認識の歪みを示している。
「反証不可能性」という共通構造
陰謀論の最大の特徴は、どんな反論も理論の補強材料に変えてしまう「反証不可能性」にある。「証拠がないのは隠蔽されているからだ」という論理だ。AGI議論にも、これと酷似した構造が見られる。
「AGIはまだ実現していない」という指摘に対し、推進派は「それは既存の評価指標が不適切だからだ」と応じる。技術的な限界を指摘すれば「それこそが次のブレイクスルーのヒントだ」と解釈される。つまり、AGIという概念は常に「もうすぐそこ」にありながら、決して検証可能な形で定義されない。この構造は、科学的議論というより信仰体系に近い。
問題なのは、この反証不可能性が巨額の投資判断や政策決定に影響を与えている点だ。具体的な技術的マイルストーンではなく、「AGIの到来」という漠然とした未来像が、資源配分の根拠になっている。
「選ばれた預言者」と技術的権威の混同
陰謀論には必ず「真実を知る者」が存在する。AGI議論でも、特定の技術リーダーが「預言者」的な役割を果たしている。彼らの発言は技術的根拠よりも、カリスマ性と過去の成功体験によって信憑性を獲得する。
ここで起きているのは、技術的専門性と未来予測能力の混同だ。優れたエンジニアや起業家であることと、技術の社会的影響を正確に予測できることは別のスキルである。しかし、AGI議論では両者が区別されず、技術的権威が自動的に「未来を見通す力」として解釈される。
この構造は、批判的検証を困難にする。権威ある人物の発言に疑問を呈することは、技術的議論ではなく「信仰への挑戦」として受け取られかねない。結果として、業界内で健全な懐疑主義が機能しにくくなる。
「終末論」としてのシンギュラリティ
多くの陰謀論が「終末」や「大転換」のナラティブを持つように、AGI議論も「シンギュラリティ」という終末論的要素を含む。これは人類史の完全な断絶を意味し、その前後で世界の法則が根本的に変わるとされる。
この終末論的思考は、現在の行動に特殊な緊急性を与える。「AGIが実現すれば全てが変わる」という前提は、現在の技術的・倫理的課題を「過渡期の些細な問題」として相対化する。AIの偏見、プライバシー侵害、環境負荷といった具体的問題が、「AGI到来後には無意味になる」という論理で軽視される危険性がある。
さらに、この終末論は二極化した思考を生む。AGI推進派と懐疑派は、技術的な議論ではなく「未来を信じるか信じないか」という信仰の問題として対立する。中間的な立場——例えば「段階的な進化はあるが劇的な転換点はない」という見方——が取りにくくなる。
健全な技術議論を取り戻すために
では、どうすればAGI議論を信仰から科学的議論に戻せるのか。まず必要なのは、概念の具体化だ。「AGI」という曖昧な用語ではなく、検証可能な技術的マイルストーンで議論すべきだ。「多様なタスクを人間レベルで実行できるシステム」ではなく、「特定の10のベンチマークで人間の平均を超える性能」といった測定可能な目標が必要だ。
次に、予測と願望の分離が重要だ。「AGIは実現すべきだ」という価値判断と、「AGIは実現可能だ」という技術的予測は別物である。両者を混同すると、議論は必然的に信仰の領域に入る。
最後に、失敗の記録と学習が欠かせない。過去の「あと10年でAGI」という予測が外れたとき、なぜ外れたのかを検証する文化が必要だ。陰謀論が失敗を「計画の一部」と解釈するのとは対照的に、科学的議論は失敗から学ぶことで進化する。
AGIという概念自体が無意味だと言いたいわけではない。長期的な技術ビジョンは研究の方向性を示す羅針盤として重要だ。しかし、それが信仰に変質し、批判的検証を拒むようになったとき、私たちは科学ではなく宗教を実践していることになる。MITテクノロジーレビューの指摘は、テクノロジー業界全体への警鐘として受け止めるべきだろう。



コメントを送信