Semiconductor Portal

» ブログ » インサイダーズ » 岡島義憲の集積回路の明日に向けて

AIリスク(その1): AI技術実装により自律化するシステムの課題

トップ研究者達のAIリスクへの言及が、約1年前より増えて来ている(参考資料1〜5)。その内容は、雇用減少を気にした旧来の論調からエスカレートしており、人類を脅かす問題、核兵器並みとされている。 本ブログでは、その概要を数回に分けて報告したい。問題を正確に認識することが、対策技術の価値を理解する上での重要なステップと思うからである。

トップ研究者達の警笛

トロント大学のHinton教授(注1)は、2023年5月にGoogle社から離れ、複数のメディアを通してAIリスクを警告した。その中には、以下の指摘が含まれていた。

  • AIは制御を失い、人類にとって損害をもたらす存在になる可能性がある。
    (AI等の先端技術により人類が絶滅する確率は、今後20年間に10%程度ある)
  • ネットワークにつながるAI群は、一種の集団意識(Hive-Mind)を形成し、人間に対する優位性を手に入れる可能性がある。
  • 対策は分からないが、アナログコンピュータ(注2)の方が、人間にとっては好ましいだろう。

また、現在の生成AI技術の先導役であるモントリオール大学のBengio教授は、2023年12月に、以下のように米国議会上院にてAIリスクへの理解を証言し、対策が必要だと訴えた(参考資料3)。

  • 環境と自律的に相互作用するAIシステムは、不可逆的に制御喪失する可能性がある
  • その対策は見い出せていない。また、その対策にどの位の期間を要するか分からない。
  • 不良化したAI(Rouge AI)の出現に備え、防御的AIを開発する国際的な研究ネットワークを構築し、防衛的 AIの技術をそのネットワーク内に秘匿化するべきだ。
  • 大規模 AI システムは、寡占化する(大きな権力を少数個人に与える)可能性がある。

両教授共に、大手テック企業との関係が密だったからであろうか、これらの問題を予想する理由については多くを語っていない。また、社会の側も、行政府を除き、日本国の中では未だ大きな反応を見せているようには思えない。反応が少ない理由は、AIが人類の敵となる物語は、サイエンス・フィクション(SF)の馴染みのテーマとして定着してしまったからであろうか?

実は、工学研究者達のAIリスクに関する学術論文の発表や書籍の刊行は、2017年を境に、急増している(図1)。それらは、

  • AI技術に潜む脆弱性問題
  • AI技術の悪用問題(マルウエア生成やサイバー攻撃)
  • AIの動作がブラックボックス的であり、推論結果を説明しない問題
    (AIの論理は確率的であり、人間が理解可能な説明をAIに行わせることができない)
  • AIの動作を開発者の意図に従わせることの難しいこと
  • 高度なAIをインターネット等で環境と相互作用(自律動作)させることは危険なこと
    (AIが、自律的に人間が望まない動作を行うという現象が見つかっている)
  • 社会や産業界に、独占や寡占が発生する懸念があること
  • 軍事兵器の自律動作には危険であること

に関する内容が多い(参考資料45)。

工学研究者達のAIリスクに関する学術論文の発表や書籍の刊行は2017年を境に急増している

図1 左の(A)は、Abstract欄に"AI"と"Defensive"を含む論文・文献数の推移(2024年2月13日集計)、右の(B)は、 Abstract欄に"AI"と"Risk"を含む論文・文献数の推移(2024年2月15日集計)
2017年は、生成AIに関する基盤技術が見いだされ、AIの言語インターフェースが革新され、IoTに関する連合学習技術が見いだされ、大量のAI(自律エージェント)群を通信ネットワークによって統合するという方向が現実的となった重要な年であった。


非常に、多岐にわたるテーマが含まれているが、筆者は、これらは、AIをIoT(Internet of Things)システムに実装させた時に発生する問題であると見る。そこで、以下に、2017年以降、顕著となったAI-IoT統合での重要技術2点を改めて振り返ってみる。

IoTシステムのマルチエージェント化と連合学習技術

IoT技術は、実物世界で稼働するセンサ等の端末機器を通して収集する大量のデータを、インターネットを通してデータセンターのサーバに蓄積し、統計処理を行った上で端末機器に制御信号として回帰させるというネットワークベースの複合システム(System of Systems)アーキテクチャである。 大量に収集されたデータを元に、サーバがデータを確率的な推論論理として集約し、高度運転支援/自動運転/製造制御/生産制御/インフラ管理から金融/事務管理に関する端末装置を自律的にサポートする社会実装が現在進められている。

そのIoT端末を、ネットワークが断絶した孤立環境でも自律動作することを可能とすべく、近年は、端末やエッジサーバ装置にもAI技術を実装する方向(Edge-AI)が試されて来ている。 そのように自律動作能力が高い端末は、コンピュータサイエンスや認知科学で言われる「エージェント」とみなされうる(注3)。 端末をAIエージェントに進化させ、IoTシステムを、自律性が高いマルチエージェントシステムに変容させる研究は、特にドローン等の軍事用兵器開発にて強力に進められて来た(図2)。


軍事技術におけるAIエージェントの統合化の動向

図2 軍事技術におけるAIエージェントの統合化の動向 出典 : 汎用人工知能研究会での筆者らの発表論文で用いた図


但し、複数のエージェントが連携し、共通の目標や目的を実現すべく協調するには、各エージェントの学習がローカルに孤立し分散的であっては不十分であり、各エージェントの学習結果を、システム全体を管理するサーバに集約・統合し、協調的な経験知として再構成して再配信しなくてはいけない。

そのような協調的学習(Collaborative Learning)を、より少ないデータ交信量にて効率的に行う手法が、2017年に、Google社より見い出され連合学習(Federated Learning)との名称で発表された。連合学習は、IoTシステムを自律性が高いマルチエージェントシステムに進化させる上での重要なブレイクスルーであった。

端末やEdgeサーバへのAI回路の実装による、IoTシステムのマルチエージェント化は、軍事システムを大々的に革新しつつあるが、そこで用意されている技術は、産業界や政府・自治体が進めているDX(デジタルトランスフォーメーション)で用いられる技術と共通する。 その状況の調査は、昨年、筆者らが「AIによって自律化が進む米国軍事技術の動向」と題した研究会論文にまとめた(参考資料78)。

生成AIによるマルチエージェントシステムの管理

Google社は、2017年に、トランスフォーマアーキテクチャと呼ぶ、入力テキスト文を元に、文章や画像などのコンテンツを自動生成する生成AI技術(大規模言語モデル)を発表した。生成AIは、プログラムコードを出力させることもできるため、各種の装置内のプログラムと対話し、更新されるソフトウエアを自律的に配信することも可能である。つまり、生成AIは、チャットボットとして人間と対話するように、IoTシステムの各AIエージェントと会話し、各AIエージェントに指令を出すデータセンター側の技術であった。

結果、IoTシステムは、環境からの情報を元に自律的に状況を認識し、自律的に環境中に働きかけることが可能な制御系AIシステムへの進化を開始した。しかし、このことが、先進の研究者達も不安とさせている点である。Internetには様々なAI搭載装置が参加しているため、生成され送信されるデータやコードが個々の装置に及ぼす影響の全てを予想することなど不可能だからである。ましてや、AI技術には、様々な脆弱性や制御の難しさが報告されている。

カリフォルニア大学バークレイ校(UC Berkeley)のDan Hendrycks氏は、「これ(AI開発)は火遊びのようなものだ」と言い、「今日のシステムをより安全にする方法の検討が必要」と、工学技術の側面から「安全設計の原則」が必要であることを強調した(参考資料4)。

また、イリノイ大学アーバナ・シャンペーン校(University of Illinois Urbana-Champaign、UIUC)のR. Fangら研究者達は、「大規模言語モデル(LLM)が、事前にサーバやPC等の脆弱性を学習させていなくても、自律的にウェブサイトをハッキングし、複雑なタスクを人間のフィードバックなしで実行すること」を示した(参考資料9)。インターネットに接続され、世界中にサービスを行っているGPT-4のような生成AIも、「そのようなハッキングが可能」であることが確認され、報告した研究者達は、「私たちの調査結果は、LLM の広範な展開について疑問を引き起こす」との見解を記した(参考資料9)。

今、この問題の全体像を理解し、対策を進めることが必要となっている。当然ながら、対策技術には、大きな市場価値があるはずである。

筆者注
1. Hinton教授は、深層学習(Deep-Learning)技術を見出し、Auto-Encoderや深層学習を始めとして、第2次AIブーム以降のAI技術開発の先導者であった。
2. Hinton教授は、Google社で「アナログコンピュータ」の開発に取り組んでいた。Wired-Onlineの記事によると、「アナログのハードウェアはそれぞれ少しずつ異なるため、あるアナログのモデルから別のアナログのモデルにパラメータの重みを移すことはできない」ことがメリットとなると語っている(参考資料1011)。
3. エージェントとは、元々は、「設定された目標や目的を実現すべく自律的に活動する代理人」を意味する法律用語であったが、コンピュータサイエンスでは、1990年頃より、「特定タスクを自律的に実行するプログラム」の意味で使われて来た。結果、「エージェント」は、サーバ側AIの支援が無くても自律的に学習し応答することが可能な「特定タスク向けの知的機能モジュール」の意味で使われて来ている(参考資料6)。

参考資料
1. Y. Bengio, et al., "Managing AI Risks in an Era of Rapid Progress", (2023).
2. Y. Bengio, "AI and Catastrophic Risk", in Journal of Democracy", (2023/09)
3. Y. Bengio, "Presented before the U.S. Senate Forum on AI Insight Regarding Risk, Alignment, and Guarding Against Doomsday Scenarios", presentation before the U.S. Senate Forum, (2023/12/06)
4. Dan Hendrycks & Mantas Mazeika, "X-Risk Analysis for AI Research", Submitted on 13 Jun 2022.
5. 山川宏、江間有沙、大蔵峰樹;「(耕論)AIと私たち 人工知能、制御できるか」、朝日新聞デジタル、(2023/09/16)
6. M. Wooldridge & N. R. Jennings; "Intelligent agents: theory and practice", The Knowledge Engineering Review , Volume 10 , Issue 2 , June 1995 , pp. 115 - 152.
7. 岡島&山川、「AIによって自律化が進む米国軍事技術の動向」、汎用人工知能研究会、(2023/10/27)
8. 岡島&山川、「AIによって自律化が進む米国軍事技術の動向(スライド)」、汎用人工知能研究会、(2023/10/27)
9. R. Fang, "LLM Agents can Autonomously Hack Websites", 2024
10. Steven Levy, 「AIのゴッドファーザーが提案する、未来のAIを友好的に保つ方法」、Wired, (2023/08/11)
11. Charles Platt,「アナログコンピューターの逆襲─複雑な現実を扱う新世代アナログチップは実現するか」、Wired, (2023/06/23)

情報統合技術研究合同会社 代表 岡島義憲
ご意見・ご感想