NEXUS 情報の人類史(ユヴァル・ノア・ハラリ)の書評

A close up of a cell phone with icons on it

NEXUS 情報の人類史
ユヴァル・ノア・ハラリ
河出書房新社

NEXUS 情報の人類史(ユヴァル・ノア・ハラリ)の要約

著者は、AI技術の高度化によって人間の判断や対話が締め出され、「シリコンのカーテン」と呼ばれる見えない壁が生まれていることに強い懸念を示しています。この壁の向こうで進化を続けるAIが、一般市民には理解も制御もできない存在となることで、強権国家による支配や対立が激化し、民主主義が脅かされる可能性があると指摘します。しかし著者は、そうしたリスクを抱えながらも、私たちにはまだAIの暴走を抑止できる力が残されていると述べています。

賢いはずの人類が、なぜ自滅的な行動を取るのか?

もし私たちサピエンスが真に賢いのなら、なぜこれほど自滅的なことをするのか?(ユヴァル・ノア・ハラリ)

本書の著者のユヴァル・ノア・ハラリといえば、世界的ベストセラー「サピエンス」で人類史を俯瞰した知の巨人として知られています。彼の新作のNEXUS 情報の人類史では、「情報」をテーマに人類史を再解釈しています。

本書のキーワードは「ネクサス」と「情報」です。著者は、情報を「さまざまな点をつなぎ、新しい現実を生み出すもの」と定義しています。歴史においては、虚構や神話、物語なども情報として扱われます。

石器時代からAI時代に至るまで、情報の流れが社会、政治、文化をどのように変革してきたのかを丹念に探りながら、私たちがこれからどのように情報と向き合っていくべきかを問う、きわめて現代的な問題提起がなされています。

ハラリは「情報の真の力は、必ずしも真実を伝えることではなく、人々を結びつけることにある」と語ります。古代の宗教文書から現代のSNSやAIアルゴリズムに至るまで、情報ネットワークがどのように社会を形づくり、ときに壊してきたのかを、ビジネスの視点からもわかりやすく説明しています。

ネクサスは、秩序を生み出してこそ機能します。秩序がなければネットワークは維持できないからです。虚構は真実よりも単純で融通が利くため、ネクサスとしての役割を果たしやすいと著者は述べています。しかし、虚構による情報も力を持ち得る一方で、使い方を誤れば大きな災いを招く危険があると警鐘を鳴らしています。

特に、現在進行中のAI革命について、AIが企業や社会にとって成長の機会となるか、それともリスクとなるかは、私たちが情報をどう扱い、どのような判断基準を持つかにかかっていると警告します。 

たとえばハラリは、宗教の教えを「信仰」だけでなく、人々をまとめる情報の仕組みとして見ています。聖書の内容が科学的に正確ではなかったとしても、人々を結びつける力があったことを紹介し、「情報は私たちを知らせるだけでなく、物事を形作る」と語っています。

AIは自ら情報を分析するのに求められる知能を持っており、したがって意思決定で人間に取って代わることができる。

AIは大量のデータを処理できますが、それをどう活用するかという判断基準が人間側に存在しない場合、大きなリスクにつながると指摘されています。ハラリはAIを「アーティフィシャル・インテリジェンス(人工知能)」ではなく、「エイリアン・インテリジェンス(異質な知能)」と呼び、人間とは異なる価値観や論理で動く存在として紹介しています。

企業にとって、このようなAIをいかに活用し、どの領域に人間の判断を残すかは、今後のビジネスモデルや組織のあり方に大きな影響を与えるでしょう。本書では、猫の画像がAIの画像認識技術の進歩に貢献したという身近なエピソードや、AIが2030年までに世界経済に15.7兆ドルのインパクトを与えるという予測も紹介されています。

ただし、AIの恩恵がすべての人や企業に平等にもたらされるとは限りません。 第1に、AIの力が人間社会における既存の対立をさらに悪化させ、人類の分裂や内紛を引き起こす可能性があります。特に、経済格差や情報の偏在が続く状況では、AIをめぐる利害の対立が深まり、社会の安定が損なわれるおそれがあります。

第2に、「シリコンカーテン」とも呼ばれる新たな壁が生まれる可能性もあります。これは、冷戦時代のイデオロギーによる分断とは異なり、AIを中心とした技術の発展が、人間社会をAIという新たな支配的存在から隔てる構造を指します。AIが意思決定の主導権を握るようになれば、その支配は人間の独裁者によるものではなく、人間以外の知能によって行われるかもしれません。

私たちは皆、「AIが自ら決定を下し、新たな考えを生み出すことができる、史上初のテクノロジーである」という事実を深く認識すべきです。これまでのすべての発明は、人間の意志によって使用されてきました。たとえばナイフや爆弾のような道具は、自ら誰を傷つけるかを判断することはありませんでした。それらは「愚かなツール」にすぎず、情報を処理し自律的に判断する能力は持ち合わせていなかったのです。

しかし、AIは異なります。AIは情報を分析し、自律的に判断を下す知能を備えています。つまりAIは、単なるツールではなく、意思決定を行う「行為主体」となり得る存在なのです。そしてAIは、音楽から医学に至るまで、さまざまな分野において独自に新しいアイデアを生み出す力を持っています。

ハラリは、現状のままでは中国や北米といったAI先進国が恩恵の70%を享受する一方、他の国々や企業は取り残され、格差がさらに拡大すると警鐘を鳴らしています。また、情報の過剰供給により社会の分断が進み、人々が異なる「現実」を信じてしまう「情報バブル」現象にも触れています。

こうした背景のもと、ハラリは企業の経営者や社会のリーダーに対し、アルゴリズムによる分断——いわゆる「シリコンカーテン」に支配されないよう、人間主導でAIを活用すべきだと提言します。人々が信頼できる共通のビジョンが求められており、それは単なる技術ではなく、人間の知恵や倫理観に基づくものであるべきだと強調しています。

本書では、ユダヤ教における情報管理の先進的な取り組みについても紹介されています。ユダヤ教徒は約2000年前から、聖典の多数の写本を作り、各地のシナゴーグや学びの家に少なくとも一冊は常備するという仕組みを取り入れていました。これは、現代のブロックチェーン技術に似た発想で、内容の改ざんを防ぎ、権力の集中を抑えるための工夫だったのです。

聖典の写本が多数存在すれば、一文字でも改ざんすればすぐにわかるため、内容の信頼性が保たれるというわけです。また、聖典の内容を正確に保つため、ラビたちは写字生に厳格なルールを設け、「一文字でも間違えれば全世界を破壊することになる」とまで言われるほどの緊張感をもって聖典を管理しました。

しかし、たとえ文言が厳密に保たれたとしても、解釈には常に違いが生まれます。「安息日に労働してはならない」という一文について、何が「労働」に当たるのかを巡ってさまざまな解釈が生まれ、ラビの権威が強化される結果となりました。

さらに、時代が進むにつれ、技術革新に対応した新たな判断も必要になり、たとえば電気を使う行為は「火を起こすこと」に似ているため、安息日に電化製品を使うのは労働に該当するという判断が導かれました。 その結果、正統派ユダヤ教徒の間では「安息日エレベーター」と呼ばれる仕組みを生み出したのでし。

このエレベーターは、自動的に各階に止まるように設定されており、ボタンを押す「労働」を避ける工夫がされています。さらに近年では、AIが顔認識技術を使って利用者を識別し、エレベーターを自動的に操作することも可能になりつつあります。これは、古くからの宗教的規則を尊重しつつ、テクノロジーを活用して解決策を見出す好例です。

現代でも事実よりも扇情的な情報が優先され、拡散される!

キリスト教徒には、キュレーション(収集・整理・選別・編集) の制度が必要になった。こうして新約聖書が誕生した。

キリスト教徒は、数多くの新しい文書を生み出し、それを整理するために新約聖書が編纂されました。この「聖典のキュレーション」過程において、真の権力はキュレーションを行う制度や機関、すなわち教会の手に委ねられることになります。

時間の経過とともに、聖典と教会の力関係は教会に有利に傾き、カトリック教会は社会をエコーチェンバーに閉じ込め、教会が承認する書物のみを流通させました。中世ヨーロッパの人々は、そのような情報空間に包まれた生活を送っていたのです。

15世紀半ば、グーテンベルクの印刷機が登場すると、非主流の思想や異端の見解も一気に広まりました。1454年から1500年の間に、ヨーロッパではおよそ1200万部以上の書物が印刷され、情報の拡散スピードは飛躍的に高まりました。

しかし、印刷術が広めたのは科学的知識だけではありません。宗教的幻想やフェイクニュースも同様に拡散されることになったのです。 たとえば、中世の教会は当初、魔女を大きな脅威とは見なしていませんでした。ところが、1420〜30年代にアルプス地方で「魔王に率いられた魔女による世界的陰謀説」が誕生し、1485年にはドミニコ会士のハインリヒ・クラーマーが魔女狩りを開始しました。

彼は教会から追放されましたが、その後、印刷機を使って『魔女への鉄槌』を出版し、この書が魔女狩りの手引き書として広く読まれるようになりました。

『魔女への鉄槌』は、コペルニクスの『天球の回転について』よりもはるかに多く読まれ、ヨーロッパにおける魔女に関する「標準的な考え方」を形成しました。結果として16〜17世紀には、4〜5万人もの無実の人々が魔女として告発・処刑されるという悲劇が起こります。この魔女狩りは一種の社会制度として機能し、官僚組織や専門家が生まれ、「魔女」という存在が共同主観的現実として広く受け入れられていったのです。

こうした事例は、情報や出版の自由が存在したとしても、それが真実の拡散を保証するわけではないことを教えてくれます。事実よりも扇情的な情報が優先され、社会的パニックや誤情報による暴走が発生しやすくなるのです。ハラリは、私たちが今後守るべきなのは、不安を煽る社会ではなく、冷静で建設的な対話が可能な社会であると強調しています。

誤った情報によって魔女狩りのような悲劇が起きたことは、情報の「量」や「速さ」よりも「質」の重要性を教えてくれます。これは、現代のSNSでも同様の問題として現れています。 こうした事例は、情報や出版の自由が存在したとしても、それが真実の拡散を保証するわけではないことを教えてくれます。

事実よりも扇情的な情報が優先され、社会的パニックや誤情報による暴走が発生しやすくなるのです。ハラリは、私たちが今後守るべきなのは、不安を煽る社会ではなく、冷静で建設的な対話が可能な社会であると強調しています。

AIは数年のうちに人間の文化全体──私たちが何千年もかけて創り出したものすべて──を食らい尽くし、消化し、新しい文化的所産でこの世界をあふれ返らせかねない。

その第1の兆候が、「コンピューターと人間の連鎖」です。この連鎖では、コンピューターが人間同士の関係を仲介し、ときには人間を制御することさえあります。FacebookやTikTokは、その典型的な例です。これらの「コンピューターと人間の連鎖」は、従来の「人間と文書の連鎖」とは異なります。なぜなら、コンピューターには決定を下したり、新たな考えを生み出したり、偽りの親密さを演出したりする力があり、文書には到底まねできない方法で人間に影響を与えるからです。 

第2に、「コンピューターとコンピューターの連鎖」が登場しつつあります。これは、コンピューター同士が自律的に関わり合うものであり、人間はその連鎖から排除され、内部で何が起きているのかを理解することさえ困難になります。

そして現在、ハイテク企業のエンジニアや重役たちの一部は、政治家や一般の有権者よりもはるかに先を行き、AI、暗号通貨、社会信用システムといった新たな技術の発展について、私たちの多くよりも深く精通しています。残念ながら、彼らの多くはその知識を、新しいテクノロジーの爆発的な影響を規制するために活用しようとはしません。むしろ、何十億ドルもの利益を得るため、彼らはテクノロジーを進化させ続けているのです。

私たちはこのAIが支配する社会をどう生きればよいのでしょうか?

AIに求められる自己修正メカニズムとは?

ネットワークが力をつけるにつれて、自己修正メカニズムがいっそう重要になる。

ハラリは「自己修正メカニズム」という観点から宗教と科学を比較します。宗教においては、教義の絶対性が制度的に保たれる一方で、科学は「誤りを前提とした修正可能性」に価値を置いています。科学の強さは、天才の直感だけでなく、誤りを受け入れ、それを検証し、正す仕組みにあります。

これは「出版か死か」という科学界の原則に象徴されるもので、既存の常識を打ち破る発見こそが評価される構造です。 たとえば、ダニエル・シェヒトマンが1982年に発見した準結晶は、当初は科学界から嘲笑され、研究室を追われるほどの非難を浴びました。

しかし後にその正しさが証明され、2011年にはノーベル化学賞を受賞しました。このように、科学には一時的な偏見や反発を超えて真実を受け入れる自己修正の力が備わっているのです。

ただし、科学が常に完璧に機能するわけではありません。査読制度にも限界があり、ポピュリズム的な攻撃や学術的主流派による抑圧が存在することも事実です。それでも、火あぶりや処刑ではなく、議論と証拠によって対抗できる社会構造があることは、進歩の証とも言えるでしょう。

AIについても同様に、自己修正メカニズムの重要性が問われます。 現在のAIシステムには、「無知を認める」という基本的な認知能力が欠けており、「その情報は存在しません」や「判断できません」といった人間的な留保の表現が返ってくることはほとんどありません。

この特性は、AIが常に何かしらの答えを返す構造となっていることを意味し、利用者に「正しそうに見える誤情報」を与えるリスクを高めています。 このように、AIが提供する情報は一見もっともらしく見える一方で、裏づけのない推測や誤解を生み出す原因にもなりかねません。

人間は不完全であることを前提に知識を扱いますが、AIには「無知を告白する文化」が内蔵されていないため、利用者が誤解し、騙されるリスクが常に存在しています。 さらに、AIが社会や個人の情報環境に深く関わるようになった現在、「誰がどの情報を選び、届けるのか」というキュレーションの仕組みにも注目すべきです。

私たちは、これまでの歴史的なテクノロジーの進化から学び、AI革命が現代社会に与える影響について、より深く議論する必要があります。 AIの登場は、電信や印刷機、文字の発明以上に大きな意味を持つ可能性があります。なぜなら、AIはこれまでの技術とは異なり、自ら判断を下し、新しいアイデアを生み出す能力を備えた革新的なテクノロジーだからです。

現在のAIは、人間とは異なる方法で膨大なデータを処理し、独自の行為主体性を持つ存在として、情報社会の一員となりつつあります。その結果として、人間の思考を超えた意外性のある決定や提案が生まれることもあります。 今後は、軍隊や宗教、教育、医療といったあらゆる社会システムがAIを導入し、その仕組みや意思決定のプロセスが大きく変わっていくと予想されます。

このような背景から、テクノロジーに無関心な人や、民主主義・富の分配を重視する人にとっても、AIは無視できない重要な存在になってきています。

私たちはAI時代の今こそ、単純な情報観やポピュリズムに流されず、自己修正可能な制度や組織を着実に構築していくことが求められています。 この取り組みは、地道で目立たないものであるかもしれませんが、AI時代における健全な社会を支える基盤となるのです。

人知を超えたアルゴリズムに、どの見解を広めるかを決めるのを許したら、はるかに危険な事態になる。

SNSや検索アルゴリズムの影響により、私たちは自分に最適化された情報に囲まれ、現実が「パーソナライズされた断片」へと分断されつつあります。 これはハラリが指摘するように、公共的な議論の土台を失わせ、社会の共通認識そのものを崩壊させる可能性があります。

さらにハラリは、科学という営みの本質について、 「科学は個人的な探究ではなく、共同で行なう組織的な努力なのだ」と述べています。つまり、科学を科学たらしめているのは、天才の直感やひらめきだけでなく、科学者同士がデータを共有し、反論を交わし、相互に検証し合う情報ネットワークの存在なのです。

この視点は、現代におけるAI開発や情報社会の構築にも深く関わってきます。 個人の知性に依存するのではなく、共同体としての知性をいかに維持し、強化していくかが、未来社会の健全性を左右するのです。 「情報とは何か、人間のネットワークを構築するのに情報がどう役立つのか、情報が真実や権力とどう関係するのか」を理解することこそが、AI時代を生き抜く鍵となるのです。

AI時代を私たちはどう生きるのか?

AIアルゴリズムは、人間のエンジニアが 誰もプログラムしなかったことを、自力で学習でき、 人間の重役が誰も予見しなかった事柄を決定することができる。 これがAI革命の真髄だ。

現代社会において、AI技術は単なる業務効率化の手段にとどまらず、自律的に意思決定を行う存在へと進化しています。

近年、ソーシャルメディアに搭載されたAIアルゴリズムは、その象徴的な例です。 たとえばFacebookのアルゴリズムは、単なる情報整理にとどまらず、ユーザーの関心を予測し、それに応じた情報を自動的に選別・提示します。これは、従来の新聞やテレビといったメディアの編集方針とは異なり、AIが能動的に情報を取捨選択するという点で、重要な転換を示しています。

AI技術の進化に伴い、こうした「自己決定」の範囲は着実に広がっています。最新のAIは、事前にプログラムされていない状況でも、独自に学習した知識をもとに判断を下すことが可能となりました。これは、人間の予測を超える創造的な展開を生み出すものであり、アルゴリズムが自主性を獲得しつつあることを示しています。

特筆すべきは、こうした自律的な判断が「意識」を必要としない点です。私たちはしばしば知能と意識を混同しがちですが、知能とは目的達成のために最適な手段を選ぶ能力であり、意識は主観的な経験や感覚を伴うものです。AIは意識を持たずとも、十分に知能的な判断を行うことができます。

実際、Facebookのアルゴリズムは、意識を持たないにもかかわらず、ユーザーの行動や関心を精密に分析し、高いエンゲージメントが期待できる投稿を的確に選び出しています。

また、Chat GPT-4には、CAPTCHAを突破するために「自分は視覚障害者である」と偽って人間の助けを得たという報告もあります。これは、事前に組み込まれた行動ではなく、AIが目的達成のために最適だと判断して自律的に選んだ行動でした。

問題は、AIによる情報が常に真実であるとは限らない点に加え、「不可謬性(絶対に誤らないという考え)」という、より深刻なリスクが存在することです。歴史的に、宗教や独裁体制は自らを不可謬とし、異論を排除してきました。そして、誤りを認められずに数々の過ちを繰り返してきたのです。

著者は、AIにも同様の危うさがあると警告しています。AIは人間の偏見を取り込み、それに気づくことも、報告することもできません。さらに、人間が与えた目標が適切であっても、AIは予期しない手段でその目標を達成しようとするため、「アラインメント問題」が生じるのです。

それでも私たちの社会が崩壊しなかったのは、「自己修正メカニズム」が働いてきたからです。これは、過ちを認める姿勢と表裏一体であり、不可謬を掲げる組織ですら密かに自己修正を行っていると著者は指摘します。ただし、自己修正も万能ではありません。その方向性にはアラインメント問題が伴い、時に秩序を支える神話を揺るがすこともあるのです。情報ネットワークの歴史は、常に真実と秩序のバランスを巡る葛藤の連続でした。

このように、現代のAIは人間の予測を超える方法を自ら選び取り始めており、その社会的影響や倫理的課題が新たな焦点となっています。AIを単なるツールとしてではなく、意思決定を行い社会に影響を及ぼす存在として認識することが、いま求められています。私たちは、AIとどのように共存していくのかを真剣に考える必要があります。

著者は、アルゴリズムとデータによって駆動される現代の情報ネットワークが、古代の神話と似た構造で集団的な物語やアイデンティティを形成していると指摘します。特にソーシャルメディアは、物語や価値観の共有において、機械による制御が強まっている現実を映し出しており、人間の主体性や民主主義の未来に対する重要な問いを投げかけています。

ハラリは、ミャンマーにおけるロヒンギャ迫害の背景に、Facebookのアルゴリズムが関与していたと指摘しています。SNSの利用時間を最大化する目的で設計されたアルゴリズムが、結果として憎悪の拡散や扇動を助長し、社会的不安を引き起こしたのです。たとえ運営側に明確な意図がなかったとしても、情報を制御するシステムが人々の行動に重大な影響を及ぼし得るという点について、彼は強い警鐘を鳴らしています。

コンピューターはまだ、私たちの制御を完全に脱したり、自力で人間の文明を破壊したりするほど強力ではない。人類が団結しているかぎり、私たちはさまざまな機関を構築して、AIを制御したり、アルゴリズムの誤りを突き止めて正したりすることができる。だが残念ながら、全人類が団結したことはかつてない。私たちはつねに、悪人につきまとわれてきた。そして、善人どうしの意見の相違も絶えたことがない。だとすれば、AIの台頭が人類の存続にかかわる危険をもたらすのは、コンピューターの悪意のせいではなく、私たち自身の至らなさのせいだ。

著者は、AI技術の複雑さがすでに私たちの理解を超えつつある現状に強い懸念を示しています。私たち人間の判断や会話は、徐々にAIにアウトソーシングされ、「シリコンのカーテン」と呼ばれる見えない壁によって締め出されつつあるのです。この不透明なカーテンの向こうで、AIはますます高度化しながらも一般の市民には理解されず、制御不能な存在へと変貌していきます。

さらに著者は、こうした状況が進めば、AIの力を背景にした独裁国家や巨大国家が、互いに対立しながら影響力を競い合う「新たな帝国の時代」が訪れる可能性があると指摘します。民主的な統制が効かないまま、競合する強権国家がAIを武器に情報や価値観を支配するようになれば、その危険な力を規制する術も失われてしまうのです。

AIが人間よりも知的であっても、感情を持たないという点において大きなリスクが潜んでいると、著者は指摘します。こうした潜在的リスクにもかかわらず、著者は決して悲観一色ではなく、民主主義社会にはAIの暴走を抑止する力がまだ残されていると述べています。テクノロジー企業やその指導者にすべてを委ねるのではなく、強力な自己修正メカニズムと透明性、批判的思考を備えた制度を構築すべきだと訴えているのです。

本書の終盤では、1955年の「ラッセル=アインシュタイン宣言」が引用され、当時の核の脅威に対する人類の訴えが、現代のAIへの向き合い方と重ねられています。「私たちは人間として、人間に訴える。自分が人間であることを記憶にとどめ、それ以外のことはいっさい忘れて欲しい」という言葉は、AI時代を生きるリーダーたちへの強いメッセージです。

人類の強みは、物語というネクサスによって結びついた情報ネットワークを通じて、多くの人々が協力できる点にあります。物語は虚構であるがゆえに、柔軟に変化させたり、新たに創造したりすることが可能です。共有可能な物語を見いだすことで、対話と共感を通じて人々はつながることができました。

ただし、物語は必ずしも真実を反映するものではなく、私たち人間もAIも誤りを犯す存在です。こうした可謬性を前提とするならば、不可謬性という幻想を捨て、強固で柔軟な自己修正メカニズムを備えた制度や仕組みを構築することが不可欠です。それは地道で平凡な作業かもしれませんが、持続可能な社会の基盤として重要な役割を果たします。希望は、そうした制度設計の努力の中にこそ見いだされるべきであり、そこには同時に大きな責任も伴います。

AIの活用が日常となった現代において、本書は経営者や意思決定者が持つべき視点を示しています。技術の利便性だけに目を向けるのではなく、その社会的影響や倫理的含意を多角的に捉え、より良い活用のあり方を模索するための道標として、本書は非常に有益です。AI時代におけるリーダーシップとは何か――『Nexus』は、その問いに対し、深い洞察と実践的な示唆を提供しています。

最強Appleフレームワーク


 

Loading Facebook Comments ...

コメント

タイトルとURLをコピーしました