Breaking
Fri. Apr 3rd, 2026

故ヘンリー・キッシンジャー元大統領と米国を代表する技術者2人が書いた新著によると、人類は人工知能のせいで地球を支配できなくなることに備え始めなければならないという。

「超人」を生み出すAIの台頭は、リトル・ブラウン・アンド・カンパニーが火曜日に出版した「ジェネシス」で大きな懸念事項となっている。出版社の親会社であるアシェットによると、これはキッシンジャーの「最後の本」だという。キッシンジャーは長年米国の外交官および戦略家として活躍し、昨年100歳で亡くなった。

キッシンジャーの共著者である元グーグルCEOのエリック・シュミット氏と長年マイクロソフトの上級幹部を務めたクレイグ・マンディー氏は、キッシンジャーの死後に共同執筆を完成させ、ワシントン・タイムズ紙は事前コピーを入手した。シュミット氏とマンディー氏は、自分たちがキッシンジャーと話をした最後の人々の一人であり、原稿を完成させたいという彼の死に際の願いを叶えようとしたと書いている。

著者らは、AIツールがすでに人間の能力を超え始めているため、人間は高度な機械によって劣勢に立たされたり、消滅したりしないように、自らを生物学的にエンジニアリングすることを検討する必要があるかもしれないと警告し、勇気づけるメッセージを送っています。

「共進化:人工人間」と題されたセクションで、3人の著者は人々に「私たちがもはや地球上で唯一の、あるいは主役ではなくなったときに、自分たちの役割をどう切り開いていくか」について今考えるよう促している。

「人間と機械のより緊密な融合を目的とした生物工学の取り組みはすでに進行中だ」と研究者らは付け加えた。

人間と機械を統合する現在の取り組みには、米軍が昨年最も重要だと認識した技術である脳コンピューターインターフェースが含まれる。このようなインターフェースにより、脳の電気信号と、戦艦の制御などの特定のタスクを達成するためにその信号を処理するデバイスとを直接リンクすることができる。

著者らはまた、今後登場する AI ツールとよりうまく連携できるように特別に設計された遺伝的系統の人類を創り出すことを選択する社会の可能性についても言及している。著者らは、このような再設計は望ましくなく、「人類が複数の系統に分裂し、一部が他よりはるかに強力になる」可能性があるとしている。

「一部の人間の遺伝子コードを変更して超人になることは、他の道徳的および進化的リスクを伴う」と著者らは書いている。「AIが人間の知的能力の増強に関与しているのであれば、人類に『外部』の知能に対する生物学的かつ心理的な同時依存を生み出す可能性がある。」

このような肉体的、知的依存は、人間を機械から切り離す新たな課題を生み出す可能性があると著者らは警告している。その結果、設計者やエンジニアは、人間をより機械に近づけるのではなく、機械をより人間らしくするよう努めるべきである。

しかし、それは新たな問題を引き起こす。多様で分断された世界において、どの人間を機械に従わせるかを選択することだ。

「いかなる文化も、その文化が依拠する知性の道徳観を他の文化に押し付けることを期待すべきではない」と著​​者らは書いている。「したがって、機械は各国ごとに、公式、非公式、道徳、法律、宗教など、さまざまなルールを学習する必要がある。また理想的には、ユーザーごとに異なるルールを学習し、基本的な制約の範囲内で、考えられるあらゆる質問、タスク、状況、文脈ごとに異なるルールを学習する必要がある」

著者らは、社会は技術的な困難を予想できるが、善と悪が自明の概念であるとは考えていないため、それらの困難は道徳規範に従う機械を設計することに比べれば取るに足りないだろうと述べている。

キッシンジャー、シュミット氏、マンディー氏は、機械を人間の価値観に合わせることにもっと注意を払うよう求めた。3人は、人類の知能を超えるような汎用人工知能は、人類と適切に一致しない限り、出現させないことが望ましいと述べた。

著者らは、人類の生存を応援しており、人々がその答えを見つけ出すことを望んでいるが、その課題は容易ではないだろうと述べた。

「我々は人類の巨大なプロジェクトの成功を願っているが、共進化という長期的なプロジェクトにおいて人間の戦術的制御を当てにできないのと同様に、機械が自らを飼い慣らすだろうという仮定だけに頼ることもできない」と著​​者らは書いている。「AIに我々を理解させるように訓練し、あとはAIが我々を尊重することを期待するというのは、安全とも成功の見込みもない戦略だ」

By eyes

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *