Semiconductor Portal

HOME » ブログ » インサイダーズ » 鴨志田元孝の技術つれづれ

製造業が生成AIを導入する際の留意点―備えあれば憂いなし

OpenAI社のChatGPTに代表される生成AIは、MicrosoftやGoogleの参入で、ますます開発の勢いを増している。最近もOpenAI、OpenResearch、University of Pennsylvaniaが共著で「Generative Pre-trained Transformers (GPTs)はgeneral-purpose technologies (GPTs)である」、つまりGPTは汎用技術であり、高賃金の仕事の効率を高められると分析している(参考資料1)。

一方、このような大規模言語モデル(LLM)(参考資料2)を活用した生成AIの利活用には負の面もあるので、「責任あるAI」を目指す国際的な規範が検討されているとも報道されている(参考資料3)。

では、ある意味で昏迷状態のまま、企業が業務効率向上のため生成AIを導入する場合は、具体的に何に注意をしなければならないだろうか。既に金融機関の対処法(参考資料4)も提案されており、AIと著作権との関係も内閣府の文書(参考資料5)や弁護士による解説(参考資料6)もある。またごく最近は先行企業がChatGPTを導入した実例のケーススタディ(参考資料7)も発表された。

いささか遅きに失した感もするが、まだ製造業向けに留意事項を検討した資料は無い、あるいはあったとしても少ないので、その観点からの検討結果をまとめてみたい。技術開発企画管理のみでなく技術者倫理やコンプライアンス、そしてISOの考え方などを含めた。なお、ここでは単にChatGPTに限らず、将来のGPTを含めて、広く「生成AI」全般を考慮している。


結論はコンプライアンス不可欠

結論から言うと「生成AI開発者やそれを使う使用者は、単に最先端技術のみでなく、セキュリティの専門知識を持たねばならない。またリーダーはコンプライアンスの神髄を学んで実践しなければならない。且つ管理者はISOの精神で内部監査員を育成し社内に法規順守の適切なシステムを構築しておく必要がある。」となる。

参考資料1を受けて、本稿では企業内の各層で何らかのデシジョンをしなければならない者を対象と考えた。具体的には小集団活動のリーダー、技術者およびそのリーダー、更に技術系、事務系を問わず管理職や、企画に携わる者など、そして経営層も念頭に置いている。なお、ここでの小集団とは技術者や管理者層、場合によっては経営層の小集団であり、ハイレベル層の小集団を想定している。

本稿では製造業で使われる特性要因図の手法で解析した。5M1Eとしては、Machine、Method、Material、Man、MoneyとEnvironmentを考えた(参考資料8)。Moneyの代わりにMeasurementを掲げている説明書もあるが、Measurementに使う機器やソフトはMachineの範疇に入るし、測定法はMethodに含まれるので、むしろ企業活動に必須の資金面に関連する考察を主要因に入れた方が、「欠落の無い考え方」に近づくからである。


生成AI導入・運用 / 鴨志田元孝
クリックで拡大

図1 特性要因図の手法で解析 製造業向けに「生成AI導入・運用時の留意点」を本稿作成過程でまとめた。赤字がキーワード。 出典:筆者作成


ハードとソフトは常に更新

ここではそれぞれの範疇別に、生成AIを使用するためのハードとソフト(含システム)、生成AIの運用方法、更に生成AIの構成要素、人的リソース、そして、運用経費面の留意点と、生成AI運用環境をそれぞれ主要因とした。その結果が付図であるが、煩雑を避けて、その思考過程で読み取れた事項のみを詳述する。

1)常にハードとソフトは更新しておき、最新版を適材適所に配置する。また情報漏洩防止処置や偽情報判別処置を織り込んだシステムとし、都度改定したマニュアルを用意する。

製造現場のリーダーが生産目標達成のための方針を決定する場合と、企業トップが目標達成のためにAIを用いてデシジョンを下す場合とは、端末やソフトが異なる場合も多い。外部リークを抑制する意味においても、あるいは万が一、ハッキングされた場合でも、面倒でも予め使用者を業務別に区分けして、適材適所を考えた設備の配置をしておいた方がトレーサビリティを容易にする意味からも望ましい。

ソフトも固定資産なので、Machineの範疇に含めたが、ネットワークを構成する端末で使用されるソフトは、外部からのハッキング防御セキュリティ対策や、また外部に企業秘密がリークしないような情報漏洩防止対策を施した端末やサーバーを用意することが肝要である。

また生成AIを搭載した端末から偽情報が拡散しないよう、真偽判定可能なソフトができるのであればそれを用意することが望ましい。既に「ChatGPTは使用者の悪意や犯罪の意図を識別することもできる」としている文献もある(参考資料9)。


マニュアル整備の重要性

2)生成AI運用のため、マニュアルを整備して、責任あるコンプライアンス体制確立する。また企業間連携や、コンソーシアムに積極的に参画し、技術力向上に努める。

残念ながら現状では、ChatGPTでは必ずしも正解を出すとは限らないことがよく知られている(参考資料10)。そのため使用者は生成AIが作成した成果物に対して、例えば文章ならなぜそう言えるのか、出典は何か、三段論法になっているかなどを常に吟味する必要がある。確認マニュアルを整備しておけば、使用している生成AIの改善にも使える。従ってこの件は日進月歩で改善されるであろう。参考文献10は大学の学生、院生にChatGPTを使わせ、彼らの意見をまとめた論文であるが、「学生たちもこの問題に対して懸念を持っているものの、解決可能とみており楽観的である」と記されている。

生成AIが拡散する偽情報や、誤情報に使用者が惑わされることも懸念されている。逆にこれらの情報を使用者側が誤って外部に伝搬させてしまう危険性もある。適切な運用が求められるので、企業のコンプライアンス対策確立と共に、コンプライアンスの知識を有し、倫理感覚を磨いた人材の育成が肝要になる。

先ず生成AIに詳しい高度なプロ集団を作って社内や社員の管理に努めねばならない。例えば暗号技術やセキュリティ技術に長じた人材が必要である。そのためには学会、セミナー、展示会、専門誌などを通して適切な人材の技術を磨き上げさせて、社内技術力の底上げを常日頃から図る必要がある。大学や国研、公設試など専門機関に、能力ある社員を派遣するのもよいだろう。

しかし小企業やベンチャー企業ではそこまで手が回らない。そこでこのような競争前の技術に関してはコンソーシアムを作って産官学共同で人材育成をするのが早道である。また企業活動には労働力の育成も重要である。筆者が先に紹介した、量子情報科学産業振興のため人材育成、労働力育成に努力している米国の戦略(参考資料11)も参考になろう。そこでも産官学のコンソーシアムが提案されている。


社内委員会などの活用も

また冒頭に述べたように技術者、経営層などハイレベルの、デシジョンメーキングができる層の小集団活動も有効であろう。文殊の知恵も湧き、お互いの切磋琢磨も可能になる。

生成AIで懸念されているのは、企業秘密などの情報の漏洩と、また偽情報や誤情報による社内の混乱である。情報の真偽を判定する社内委員会を設置して、社内に入ってきた情報と、社外へ出て行った情報を定期的に審議して、チェックするのも効果があろう。偽情報を拡散して企業のコンプライアンス機能を疑われたり、社内の企業倫理や技術者倫理感覚を疑問視されるようなことがあってはならない。脇を固めながら生成AIを運用する必要がある。

社内制度だけ作っても機能していなければ意味がない。ISO14001などでは内部監査員制度を構築して、制度や規定の順守状況を定期的に監査する仕組みを要求している(参考資料13)。そのような仕組みをぜひ参考にして頂きたい。また使用している生成AIを定期的に見直し、最良の状態に維持するため、プロ意識を持った担当者集団を設置して、更新マニュアルを整備しながら運用することが重要である。それもISOの考え方を習得していれば必然的になされる。

生成AIは発展途上にあり、ルール作りが国際間でも行われている。国内だけでなく国際間の動きにも注目しておく必要があることは言うまでもないし、新しい法規を見過ごさない監視体制も準備しておく必要がある。

また偽情報・誤情報を拡散させてしまった場合などの不測の事態に備えて、いかに対外的に情報伝達を確実に行うかを決めることにも留意しておかねばならない。ISO14001では、内部でのコミュニケーション徹底と、有事の外部コミュニケーションシステムの確立が要求事項になっている。ISO審査時には、いくら相手に伝えてあると主張しても、本当に相手に伝わったのか、その証拠は何か?という具合に追及される。したがって広報活動も重要になる。不祥事を起こして、「不適合」と判断された場合は、再発防止策も必ず問われるので、関連部門との連携と体制構築も生成AI運営上、必須である。


大規模言語モデルにも組み込む

3)生成AIの構成要素である大規模言語モデルに、偽情報・誤情報の伝搬影響軽減策を施しておく。

ソフト、ハード、システムの部材や、後述の人材なども、生成AIの重要な構成要素であるが、重複を避けるため、ここでは省略する。

それ以外の構成要素としては、この場合は先ずは「大規模言語モデル」があげられるであろう。一言で言えば、大規模言語モデルはウェブの膨大な文章を使って、ニューラルネットワークで機械学習させてディープラーニングを行なわせるというモデルである。先に掲げた参考資料2にも既出の主な論文がまとめられている。また最近、大規模言語モデル理解のため24編の基本論文をまとめているブログもある(参考資料13)。

大規模言語モデルの原理は、質問を入力すると、その文章に続く、最も質問の意に近い言葉や文章を探索させる作業を繰り返して解を得るというものであるが、いつも質問者が意図した適切な言葉や文章が選ばれるとは限らないため、先に記したように間違った解に至る場合もありうる。しかし使用者がその都度修正を施すので、使えば使うほどその使用者にとって精度も上がることになる。つまり社内で導入する生成AIの大規模言語モデルは、常に見直され、更新されたモデルにしておくことが求められる。そのため、言語モデル修正マニュアルも重要になる。

また偽情報や誤情報を受信した時、あるいは発信してしまった時に伝搬中の影響を軽減させねばならない。その軽減手法の一例としてゲーム理論を用いる提案も既になされている(参考資料14)。不慮の事故を発生させてしまった場合でも、影響を軽減する対策を施した構成要素にしておく必要がある。


IT/セキュリティ+知財・法務の専門家必須

4)人的リソースとしてプロフェショナルな技術者の確保と配置と共に、コンプライアンス確保のための人材を用意する。

どのような立派な仕組みや制度を作ってもそれを実行するのは人間なので、力量ある人的リソースが揃わなければ成果は得られない。ここでは2)で述べた手法等で育成された、セキュリティや高度なIT技術に関する専門家や、外部コンソーシアムなどで通用する技術者が重要である。

さらに技術者のみでなく、コンプライアンスに詳しい人材、即ち知財・著作権・法務・経理等、場合によっては全社横断的な観点で事務系の担当者も含めて、備えを固める組織が肝要であることを強調しておきたい。担当者はビジネスコンプライアンス検定試験(参考資料15)に挑む、あるいは少なくても問題集を読むことも必要と考える。社内に法務部門などが無い場合は官界、学界から知恵を借りられる人材を用意しなければならない。さらに、外部弁護士やコンサルタントを活用して、企業活動に隙が無いようにしておくことが必須である。


損害保険や外部専門家も活用

5)運用経費面では不慮の損害に対して保険や外部専門家も含めて予め検討しておく。

上記の留意点を実行しても、それが必ずしも直接企業利益に結び付くとは限らない。そのため大企業はともかく、スタートアップ企業やベンチャー企業、中小企業では、とかく手が回らない事項である。しかも実行するためにはそれなりのコストがかかる。但し避けては通れないので、計画的な予算策定が必要である。

不測の場合に備えて各種の損害保険を掛けておくことも、場合によっては留意しておく必要がある。必要なら弁護士、公認会計士、外部コンサルタントなど専門家との相談もしなければならない。誤情報や偽情報の発散などの不祥事を発生させてからでは遅い。

6)コンソーシアム参画、産学官連携、企業間連携など環境整備と活用が重要

最新技術情報収集や、共通なルール作りや標準化の作業は、事業経営を行う上で、あるいは事業拡大を行う上で必須である。情報収集には学会や協議会活動が欠かせない。セミナー参加や展示会見学も重要である。大学の研究発表会に参加するのも、生成AIに関する新しい情報を得るには必要なこととなる。

忙しい部署ほど、また生成AI対応の体制が整っていない企業ほど、このような所謂「競争前の基礎的共通的技術」に関してはコンソーシアムを組んででも、効率よく開発を進める環境が必要である。産学官連携コンソーシアムの結成は、先に筆者が紹介した米国における量子情報科学分野の振興策にて人材育成のために、プレコンペティティブな課題における産学官コンソーシアムを構築し、そこの共同研究所を活用することが提案されていた(参考資料11)。もとよりこの産学官連携の共同研究は、日本が発祥地(参考資料16)であることを付記しておきたい。


まとめ:限界を知ったうえで活用

既にFei-Yue WangらはIndustry4.0に続く次世代のIndustry5.0についてChatGPTと対話して展望をまとめている(参考資料17)。そこではIndustry5.0に関する質問に対して、ChatGPTの解答は必ずしも明快ではなく、曖昧な側面もあったと記されている。

大規模言語モデルが膨大な過去の文章を読み込んでその組み合わせで生成する文書である以上、元となる膨大な過去の文章が無い、あるいは有っても少ない領域の質問に関しては、AIでも解答しがたいし、回答が得られたとしても、そこには偏りがあるのは当然であろう。半導体のMooreの法則などのような単純な予測はともかく、一般に将来予測などはもともとウェブ上に確たる証拠がある文章が膨大にないので、その辺が生成AIの限界と考えられる。それを知った上で、生成AIの便利さを活用すべきであり、また不測の事態に備える体制の整備を留意しなければならない。すべて備えあれば憂いなしである。

謝辞
本稿はNEC理事・ULSIデバイス開発研究所長時代の開発企画管理業務と、秋田大学客員教授(知的財産)、宮城高専専攻科非常勤講師(技術者倫理)、およびNECトーキン教育情報社長時代のISO環境マネジメントシステムCEAR登録主任審査員や品質マネジメントシステムJRCA登録審査員補としての経験を基にまとめた。在職時代の上司、先輩、同じ職場の同僚諸氏と、教育機関でお世話頂いた世話役の先生方を想い出し、あらためて深甚なる御礼を申し上げたい。また本稿はいつもの通り津田建二編集長の御査読を願った。常時最新情報に接している方に査読頂けることは、今は机上の知識しか入手できなくなった身にとって大変心強く有難い。深謝し厚く御礼申し上げる。

技術コンサルタント 鴨志田 元孝

参考資料
1. T. Eloundou, S. Manning, P. Mishkin, D. Rock, "GPTs are GPTs:An Early Look at the Labor Market Impact Potential of Large Language Models", SummarizePaper.com, (2023/03/23)
2. 例えばWayne Xin Zhao, Kun Zhou, Junyi Li, Tianyi Tang, Xiaolei Wang, Yupeng Hou, Yingqian Min, Beichen Zhang, Junjie Zhang, Zican Dong, Yifan Du, Chen Yang, Yushuo Chen, Zhipeng Chen, Jinhao Jiang, Ruiyang Ren, Yifan Li, Xinyu Tang, Zikang Liu, Peiyu Liu, Jian-Yun Nie and Ji-Rong Wen, "A Survey of Large Language Models", Cornell University, arXive:2303.18223v10 (2023/03/31)
3. 鈴木友里子、「『責任あるAI』合意へ」、朝日新聞2023年4月30日朝刊
4. 間瀬英之、大沼俊輔、「金融機関はChatGPTにどう対処すべきか」、日本総研 (2023/05/19)
5. 「AIと著作権の関係等について」、内閣府
6. 長坂邦宏、「著作権に詳しい福井弁護士はChatGPTをどう見る?」、一歩先への道しるべ ビズボヤージュ (2023/05/30)
7. 「ChatGPT仕様術大全」、PRESIDENT誌、(2023/06/30)
8. 例えば鴨志田元孝、「改訂版ナノスケール半導体実践工学」(丸善)、中でもp.296、p.303 2013年第2刷
9. Fei-Yue Wang, Juanjuan Li, Rui Qin, Jing Zhu, Hung Mo, Bin Hu, "ChatGPT for Computational Society Systems: From Conversational Applications to Human-Oriented Operating Systems", IEEE Trans. Computational Social Systems, 10 (No.2), pp414-425, (2023), 特にp.418の右側下から3行目よりp.419の左側3行目
10. 例えばA. Shoufan, "Exploring Students’ Perceptions of ChatGPT: Thematic Analysis and Follow-Up Survey", IEEE Access, IEEE Education Soc. Sec. 11, pp.38805-38818 (2023)
11. 鴨志田元孝、「米国の量子情報科学産業振興政策からわかる国家戦略」、セミコンポータル (2022/05/26)
12. 例えば概要 | ISO 14001(環境) | ISO認証 | 日本品質保証機構(JQA)
13. S. Raschika, "Understanding Large Language Models--A Transformative Reading List", Sebastian Ranschka (2023/02/07)
14. Zhen Guo, Jin-Hee Cho, Chag-Tien Lu, "Mitigating Influence of Disinformation Propagation Using Uncertainty-Based Opinion Interactions," IEEE Trans. Computational Social Systems, 10, (No.2), pp.435-447, (2023)
15. ビジネスコンプライアンス検定
16.垂井康夫編著、「半導体共同研究プロジェクト」、武田計測先端知財団、工業調査会刊 (2008)
17.Fei-Yue Wang, Jing Yang, Xingria Wang, Juanjuan Li, Qing-Long Han, "Chat with ChatGPT on Industry 5.0: Learning and Decision-Making for Intelligent Industries," IEEE/CAA J. Automatica Sinica, 10, (No.4), pp.831-834, (2023)

ご意見・ご感想