(第71回)EUのAI法における生成AIの位置付け(濱野敏彦)
(毎月中旬更新予定)
生貝直人「EUのAI規制枠組:AI規制論の生成AI前後」
法とコンピュータ42号(2024年)35頁~40頁より
「AI」という言葉自体は、1956年のダートマス会議において、John McCarthyが用いたのが始まりであるといわれている。しかし、現在、一般的に使われている「AI」という言葉は、2012年の「ILSVRC」という世界的な画像認識のコンペティションで、ディープラーニング(ニューラルネットワーク)を用いたカナダのトロント大学の Geoffrey Hintonらのチームが圧倒的な勝利を収めたときから用いられるようになったものである。
そして、2012年以降、「AI」という言葉は、様々な意味で用いられており、確立した定義は存在しない。
そのような中で、いわゆる生成AIが、急激に進展してきた。
生成AIについても明確な定義があるわけではないが、一般的には、言語モデル、画像生成AI、動画生成AI等が、生成AIに含まれると考えられている。
生成AIが広く認識されるきっかけになったのは、ChatGPTである。ChatGPTは、2022年11月に利用が開始され、その2か月後の2023年1月には月間アクティブユーザが1億人を突破した。
その後、現在に至るまで、ChatGPT等の生成AIは急激に進展し続け、利用が急激に拡大し続けているため、生成AIは、単なるブームではなく、「技術革新」であるといえる。
EUにおけるAI規制は、元々は、「AI」を対象としていた。しかし、EUのAI法の立法過程において生成AIが急激に進展してきたため、AI法において、生成AIも規制対象となっている。
本稿は、EUのAI法の立法過程において急激に進展してきた生成AIが、EUのAI法の中でどのように位置付けられているかについて、分かりやすく説明されている。
すなわち、生成AIの進展以前のEUにおけるAI規制論は、製品に組み込まれることで生じうる製品安全のリスクと、個人データのAIによる自動処理(特にプロファイリングによる決定)が自然人の権利利益にもたらしうるリスクに焦点が当たっていたのに対して、生成AIについては、違法情報の生成・流通や、民主主義プロセスや国家安全保障への影響などの観点から規律のあり方が論じられる偽情報や誤情報の問題といった情報環境全般に係わるリスクに焦点が当たっていると整理している。
そして、EUのAI法では、生成AIの進展以前から検討していたAIシステム全般が有するリスク、すなわち、①許容できないリスク、②高いリスク、③限定リスク、④最小リスクの4段階に分類した形での規律を行うリスクベースのアプローチを維持した上で、さらに、生成AIを含む汎用目的AIモデルの規律として、⑤汎用目的AI全般に対する義務、及び、⑥システミックリスクAIに対する追加的義務の2類型が加えられたことについて、分かりやすく解説している。
なお、システミックリスクは、「高い影響力を持つ汎用目的AIモデルに特有のリスクであり、その影響範囲の広さ、又は公衆衛生、安全、治安、基本権、社会全体に対する実際の若しくは合理的に予見可能な悪影響により、EU市場に重大な影響を及ぼし、バリューチェーン全体に渡り大規模に伝播しうるもの」(3条(65))と定義されている。
さらに、⑤汎用目的AI全般に対する義務として、汎用目的AIモデルの提供者に対して、監督当局の要請に応じて提供できるように、訓練やテストのプロセス、評価結果等を含むモデルの技術文書を作成し最新の状態に保つこと等の義務が課されていること、また、⑥システミックリスクを有する汎用目的AIモデルの提供者は、システミックリスクの特定と軽減を目的としたモデルの敵対的テストの実施と文書化を含むモデル評価を実施すること等が義務付けられることについて、分かりやすく解説している。
また、本稿は、2024年2月から全面適用されたデジタルサービス法(ソーシャルメディア等のプラットフォームサービスを含むデジタルサービスの規律枠組)に基づき超大規模オンラインプラットフォーム、及び、超大規模オンライン検索エンジンの提供者に課せられる義務は、生成AIを含む汎用目的AIのうち、システミックリスクを有する汎用目的AI提供者に課せられる義務と、2つの点で相互補完関係にあることを説明している。
すなわち、①AI法の前文118において、汎用目的AIモデルが、超大規模オンラインプラットフォーム、及び、超大規模オンライン検索エンジンのサービスに組み込まれた場合の両法におけるシステミックリスク条項の相互関係が整理されており、また、②AI法の前文120において、汎用目的AIシステムを含むコンテンツ生成AIシステムの提供者が義務付けられている、アウトプットが機械可読な形でマークされ、人為的に生成又は操作されたものだと検知可能にする義務は、デジタルサービス法の超大規模オンラインプラットフォーム、及び、超大規模オンライン検索エンジンのシステミックリスク条項を補完する位置付けにあることを示している旨を解説している。
デジタルサービス法というデジタルサービスの規律枠組みと、AI法というAIに関する規制枠組みが、補完的な関係になっているというのは大変興味深い。
このように、本稿は、EUのAI法における生成AIの位置付けについて分かりやすく整理されており、示唆に富む論考である。
本論考を読むには
・法とコンピュータ学会
◇この記事に関するご意見・ご感想をぜひ、web-nippyo-contact■nippyo.co.jp(■を@に変更してください)までお寄せください。
この連載をすべて見る
2002年東京大学工学部卒業。同年弁理士試験合格。2004年東京大学大学院新領域創成科学研究科修了。2007年早稲田大学法科大学院法務研究科修了。2008年弁護士登録(第二東京弁護士会)。2009年弁理士登録。2011-2013年新日鐵住金株式会社知的財産部知的財産法務室出向。主な著書として、『AI・データ関連契約の実務』(共編著、中央経済社、2020年)、『個人情報保護法制大全』(共著、商事法務、2020年)、『秘密保持契約の実務〈第2版〉』(共編著、中央経済社、2019年)、『知的財産法概説』(共著、弘文堂、2013年)、『クラウド時代の法律実務』(共著、商事法務、2011年)、『解説 改正著作権法』(共著、弘文堂、2010年)等。