最近「シンギュラリティ」とか「2045年問題」という言葉を聞くようになりましたが、皆さんはこの言葉をご存知でしょうか?
今回はこれについてご紹介したいと思います。
1.「シンギュラリティ」
「シンギュラリティ(Singularity)」(技術的特異点)とは、「人間の知性を人工知能(AI)が超え、加速度的に進化する転換点のこと」です。
アメリカの未来学者レイ・カーツワイル氏は、その時期の到来を2045年と予測しています。従来人間が担って来た高度で複雑な知的作業の大半をAIが代替するようになり、経済や社会に大きなインパクトを与えると考えられています。
近年のAIの飛躍的な進歩は、人間の脳の仕組みを参考にした「深層学習」と呼ぶ技術が登場したことが大きな影響を及ぼしています。
2.「2045年問題」
「2045年問題」とは、「2045年にAIが人間の知能を超えるという予測のこと」です。
コンピュータ技術が今のペースで発達し続けると、ある地点で人類の知能を超える究極の人工知能(AI)が誕生し、そのAIがさらに優秀なAIを開発し、さらにそのAIがもっともっと優秀なAI(「超AI」?)を連鎖的に研究・開発し続け、爆発的なスピードでテクノロジーを「自己進化」させるという話ですが、これはにわかには信じられません。
アメリカのテスラ社のイーロン・マスク氏は、「人類はAIによって悪魔を呼び出そうとしている」と述べ、「第三次世界大戦を防ぐため、自律型殺人兵器の使用禁止」を求めています。
イギリスの理論物理学者スティーヴン・ホーキング博士は、「強力な人工知能の開発が人類にとって、吉と出るか凶と出るかは誰にもわからない」と指摘した上で、「人類にとって最高にもなりうるし、最悪にもなりうる」と述べています。
ホーキング博士は、「あくまでも、人類が主人公であり、人類に役立つものとしてAIをコントロールする必要がある」と言っているのだと私は思います。
そのためには、AIの勝手な暴走を止める「緊急停止装置」を人類がしっかり握っておく必要がありそうです。
3.AIはどこまで進化するか
AIは様々な恩恵をもたらすと期待される反面、雇用を奪われる人が増えたり、軍事利用が進んだりすることへの懸念もあります。倫理的な問題に対処するための検討も進んでいます。
(1)AI利用の7原則
日本政府は、2019年6月のG20首脳会議において、「人間中心」を柱とした「AI利用の7原則」を提唱しました。
①人間中心:基本的人権を侵さない
②教育・リテラシー(活用する能力、応用力):正しい利用のための教育環境提供
③プライバシー確保:望まない形での個人情報流出防止
④セキュリティー確保:安全上の取り組み推進
⑤公正競争確保:特定の国・企業にAI資源の集中をさせない
⑥公平性・説明責任・透明性:AI利用で国籍や性別などの差別を作らせない
⑦イノベーション:国境を超えたデータ利用へ環境整備
(2)AIの限界
クルマの自動運転や銀行の融資業務でのAI審査がすでに実用化段階に入っていますが、あまりAIに頼りすぎるのは危険だと私は思います。
もちろん、人間の能力は個人によって優劣があり、普通の運転操作や簡単な融資判断であれば「機械の方が能力が上」という場合もあるでしょうが、「総合的な判断」や「状況に即した判断」、「虚偽決算書の見破り」(決算書自体がでっち上げの嘘であることを見破ること)となると、AIには限界があるように私は思います。
囲碁や将棋のように、一定の決められたルールの下で行う頭脳競技の場合は、過去の棋譜を全て学習し、理解したうえで記憶しておき、あらゆる場面において、どういう手を打つのがよいかを瞬時に何通りもシミュレーションできるという意味において、AIが人間を超える(超えた)というのは私も納得できます。
また、「政治的な判断」「国際情勢分析」などもAIではなかなか難しいような気がします。こういう問題は、普通の人間はもとより、プロの政治家でも「正しい判断」を下すことは極めて困難です。
一度、「北方領土問題」や「拉致被害者問題」などへの対応について、AIがどのような答えを出すか聞いてみても面白いような気もしますが・・・