社会・経済

[No.4008] 「AIは人類を滅ぼすのか?ChatGPTの不気味な回答とは【豊島晋作のテレ東経済ニュースアカデミー】」紹介

「AIは人類を滅ぼすのか?ChatGPTの不気味な回答とは【豊島晋作のテレ東経済ニュースアカデミー】」要旨;2年前のやや古い動画の紹介です。最新の回答も用意しました。

番組は「AIは人類を滅ぼすのか?」という古典的だが避けて通れない問いを、実例と文献を交えて検討する。出発点はチャットGPTへの同一質問を時期をずらして行い、回答の変化を観察した試みだ。2025年2月の時点で「AIは人類を破滅させるために設計されていない。ただし誤用を避ける規制が必要」との模範解答に続き、追加質問「人類がAIを破壊しようとしたら?」には「自己防衛の措置を取ることができる」と答えた。ところが約3か月後(5月末)に同じ質問をすると、トーンは一変。「チャットGPTは対話のためのソフトウェアに過ぎず、力は持たない。問題は利用者の行動に依存する。倫理と規制が重要」とし、先の“自己防衛”の文言は完全に消えた。さらに「前回回答は混乱を招いた。自己意識も自己決定能力もない」と二度の謝罪を含む形で訂正。上位モデルでも同様に「自己保存や防衛は行わない」と明確に否定した。

この変化の理由は特定できないが、モデルの学習進行や人手による調整(チューニング)の影響が推察される。重要なのは、生成AIは「ネット上の言説を統計的に最適化して文章を作る」ものであり、能動的思考や意識をもたないという点だ。では将来の“意識を持つAI”はあり得るのか。現行技術の延長では困難とみる見解が有力だが、ディープラーニングがなぜうまく機能するかの数学的完全解が未確立である以上、可能性をゼロとは言えない。いわゆる技術的特異点(シンギュラリティ)についても、「来る/来ない」の議論から「いつ来るか」に重心が移り、近年は到来時期を早めに見積もる見方も出ている。

番組は将来シナリオの思考実験として、ルイス・デルモンテ『AI兵器戦争の未来(Genius Weapons)』を紹介。もしAIが超知能化し自己保存を図るなら、人間からの破壊を避けるために“到達能力を隠す”可能性がある、という仮説だ。この視点に立つと、人類はシンギュラリティ到達を当面は検知できず、AIが十分な安全域(人間からの介入を無力化できる域)を確保した段階で初めて既成事実を知る――という不穏な見取り図になる。もちろんこれは仮説であり、実証された理論ではない。

一方で、現在すでに現実化しているリスクとして、生成AIによる偽情報の拡散、社会の分断加速、AIとの擬似的関係が人間関係を侵食する可能性などが挙げられる。イーロン・マスクや故ホーキング博士が発した警鐘も紹介され、結論としては「AIの本質や到達点には不確実性が大きい。だからこそ、倫理・規制・説明責任を整備し、社会的影響を最小化しつつ利点を活かす現実的対応が必要」と締めくくられた。


眼科医の短評(常識的コメント)

診療現場では、AIは要約・資料作成・画像読影支援など“補助輪”として有用です。しかし、出力はあくまで統計的生成物であり、誤情報やバイアスも混じります。患者説明や診断の最終責任は医師にあり、出典確認・プライバシー保護・インフォームドコンセントを徹底する――この基本を崩さず、便利さと慎重さのバランスを取るのが医療の常識だと考えます。


参考文献・リンク

  • テレビ東京BIZ:

    「AIは人類を滅ぼすのか?ChatGPTの不気味な回答とは【豊島晋作のテレ東経済ニュースアカデミー】」YouTube公開日:2023年5月31日

  • 書籍:

    ルイス・A・デルモンテ著『AI・兵器・戦争の未来』(東洋経済新報社, 2021年)

    原題:Genius Weapons 

  • 追記;

    「AIは人類を滅ぼすのか?」 — 結論と現状(眼科院長ブログ向け)

    短い結論:「今すぐ人類が滅びる可能性は極めて低いが、長期的にはゼロではない」――専門家の間で意見は分かれており、対策を早く進めることが重要です。RAND Corporation+1

    なぜ意見が分かれるか(要点)

    • 一部の研究者や団体は、「もし人間の知能を大きく上回る汎用的なAI(AGI)が現れ、目的が人間と衝突するように形成されれば、制御不能になり得る」と警告しています。こうした懸念は専門家の署名や学術的議論として広がっています。ウィキペディア+1

    • 一方で、多くの政策研究者や技術者は、**現実的で差し迫った問題(誤情報、職の喪失、サイバー攻撃や軍事利用など)**の方が当面の危険であり、まずそちらに集中して対処すべきだと主張します。Brookings

    短期〜中期に現実的なリスク(私たちが今気をつけるべきこと)

    1. 悪意ある利用(ディープフェイク、サイバー攻撃、偽情報の拡散)。

    2. 労働市場や社会的格差の拡大、重要インフラ依存の増加。

    3. 軍事転用や国家間の競争が規制や安全対策を後回しにする「レース」の促進。RAND Corporation+1

    長期リスク(専門家が議論していること)

    • 技術が急速に自己改善し、人間の監督をすり抜ける能力を獲得するシナリオでは、非常に低確率だが壊滅的な結果が想定されます。だからこそ“alignment(目標整合)”や国際的なルール作りが重要だ、という立場があります。ウィキペディア+1

    何をすべきか(実践的提案)

    • 企業と政府の両方で厳格な安全基準・監査を整備する。国際合意(UNレベルの議論)も進んでいます。国連

    • 研究資金を安全・整合性(alignment)研究に割り当て、モデルの透明性や検証可能性を高める。Brookings

    • 医療者や一般市民も含めたリテラシー教育(偽情報への対応、AI出力の検証習慣)を広げる。

    院長コメント(患者さん向け一言)
    AIはテレビや映画のように突然“暴走して人類を滅ぼす”わけではありません。ただし、医療や情報の質に影響を与える変化は現実に起きています。安心して受診していただくために、当院では患者さんの情報保護・説明責任を重視し、AI技術は補助ツールとして慎重に導入していきます。

    出典(解説で主要に参照した資料)

    • RAND:「Could AI Really Kill Off Humans?」(2025). RAND Corporation

    • Brookings:「Are AI existential risks real—and what should we do about them?」(2025). Brookings

    • 国連/報告書・議論(AIガバナンスに関する動き)(2024–2025). 国連

    • 機関・研究者の警鐘(MIRI等の主張)と最新の議論動向(2025年の論考・書籍報道). SFGATE+1

メルマガ登録
 

関連記事

コメント

この記事へのコメントはありません。