【第6回】生成AIに対する規制の導入等に関する議論の状況
December 15th, 2024
今回の目的
これまでに見てきたように、生成AIの利用は多くの問題点を伴うものであり、悪意を持った利用に対する懸念も広がっています。 そこで、日本を含む世界各国で、生成AIに対する新たな適切な規制を導入しようという動きが広がっています。 本記事では、生成AIに対する新たな規制の導入について説明させていただきます。
背景
AIを規制しようとする動き自体は以前から見られたものであり、例えば、EUは、2021年4月の時点で既に「AI法」(AI Act)案を公表していました。しかし、この時点では、その後一気に普及する生成AIの存在やそのリスクを想定したものとはなっておらず、大幅な議論の修正を迫られました。さらに、生成AIは2022年以降、急速に普及したため、各国が独自に規制の議論を行うなどして、混乱も見られる状況にありました。
広島AIプロセス
上記の背景を踏まえ、G7は、2023年5月に開催された広島サミットにおいて、生成AIに関する国際的なルールの検討を行う必要性を確認し、「広島AIプロセス」という名称の新たな議論の枠組みを立ち上げました。その後、閣僚級会合などを経て、AI関係者向けの指針など(※1)が承認されるに至っています。AI関係者向けの指針では、全てのAI関係者に、以下の12の項目(但し、1~11は、性質上、高度なAIシステムを開発する組織のみに適用可能な場合がある)が適用されるものとしています。
HIROSHIMA AI PROCESS
|
これはあくまでもG7の示す指針にすぎず、各事業者の具体的な義務を直接定めるものではないものの、今後想定される各国の法制化における指針となることが想定されます。このような観点からも、事業者としては、今の段階から、これらの原則の内容を理解し、十分に配慮した開発やサービス展開を行うことが必要といえます。
日本における法制化の動向
日本国内では、2023年に内閣府に設置されたAI戦略会議、及び2024年に同じく内閣府に設置されたAI制度研究会において、生成AIのリスクに対応するための方策について議論を行ってきました。AI戦略会議で取りまとめられた「AIに関する暫定的な論点整理」(2023年5月26日 ※2)では、生成AIのリスクに対応するために、既存のガイドラインに関して必要な改訂などを検討する必要があるとの提言がなされ、これを受けて経済産業省と総務省は、2024年4月19日に「AI事業者ガイドライン(第1.0版)」(※3)を公表しています。
このように、我が国では、今のところガイドラインというソフトローでの対応が行われている状況であり、直ちに生成AIを規制する法律(ハードロー)を設けようという状況にはなっていません。もっとも、ソフトローに基づく運用では対応できないリスクが明確に認識されるようになった際には、法律(ハードロー)による規制の導入も十分に考えられるところです。実際、現在責任のあるAIの開発・利用に関するユースケースの収集等を中心に活動しているAI制度研究会の議事では、ガイドライン等のソフトローで方向性を示した後、必要な範囲で法律(ハードロー)に基づく規制を導入することも示唆されています。なお、AIに対する安全性評価の手法の検討については、2024年2月に独立行政法人情報処理推進機構(IPA)内部に設立されたAIセーフティ・インスティテュート(J-AISI)において、後述する米国のUS AISI等の他国機関と連携しつつ、検討が進められています。
知的財産権をめぐる観点からは、文化審議会著作権分科会法制度小委員会が「AIと著作権に関する考え方について」(※4)を公表する等、生成AIに関連する既存法令の解釈の明確化の試みが進んでいます。こちらについても、既存法令では対応できないリスクが認識されるようになった際には、法改正の必要性が具体的に議論されることが予想されます。
各国の動向
また、主要各国では、以下のとおり、規制が検討されている状況です。
EU |
EUは、AI法の制定に向け、2021年の欧州委員会の提案から3年がかりで議論を進めてきましたが、2023年12月にようやく、最終的な修正案が政治合意に至り、2024年5月に「EU AI法」が成立し、2024年8月1日から一部が施行されており、2026年に全面施行の予定となっています。
|
||||||||
米国
|
米国では、2023年10月30日の「安心・安全・信頼できるAIの開発と利用に関する大統領令」で、高度なAIを開発する企業は、米国立標準技術研究所(NIST)による安全性・信頼性のテストを受けることや、政府に開発情報を共有する義務が課せられています。これを受け、NIST内に、米国AI安全研究所(US AISI)及び米国AI安全研究所コンソーシアム(AISIC)が設置され、AIの安全性の確立に向けた議論が行われています。 |
||||||||
中国
|
中国では、2023年8月15日、主要国で初めて生成AIに関する規制(生成式人工知能サービス管理暫行弁法)を施行しました。国家のイメージを損なうコンテンツや、虚偽有害情報等のコンテンツを生成してはならないといった禁止事項や、生成されたコンテンツが認識できる表示の義務付けなどが定められています。 |
最後に
以上のように、我が国では、生成AIの持つリスクに対し、ガイドラインによるソフトローアプローチで対応している状況ですが、政府内でも具体的なユースケース等を踏まえたリスクの洗い出しが進められており、ソフトローだけでは対応しきれないリスクが具体的に整理された際には、法整備に向けた議論が一気に進展する可能性もあるため、引き続き動向を注視する必要があります。他方で、EUでは既に規制が実施されており、米国も法制化に向けた具体的な動きが進みつつあるため、今後の状況に関心が高まります。さらに、中国を含むG7加盟国以外の国では、独自路線の規制に進むか、あるいは全く規制が進まないという状況も考えられます。特にグローバル企業においては、各国の規制のギャップに応じた対応が求められることになるため、関係する国の動向をしっかりと把握して、必要な対応を検討していく必要があるでしょう。
今後の予定
- 生成AIの社内利用に関するルール作りのポイント
※1 全てのAI関係者向けの広島プロセス国際指針
https://www.soumu.go.jp/hiroshimaaiprocess/pdf/document03.pdf
高度なAIシステムを開発する組織向けの広島プロセス国際指針
https://www.soumu.go.jp/hiroshimaaiprocess/pdf/document04.pdf
※2 https://www8.cao.go.jp/cstp/ai/ronten_honbun.pdf
※3 https://www.meti.go.jp/press/2024/04/20240419004/20240419004-1.pdf
※4 https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/pdf/94037901_01.pdf(2024年3月15日)
本記事の内容は、2024年12月8日現在のものです。最新の内容とは異なる場合がありますので、ご了承ください。