各国の生成AI関連政策動向 [第1弾]

Blog
AI
著者

うぱ

日付

9/24/2024

はじめに
各国の生成AI関連政策動向をまとめたメモ

1 はじめに

 各国で進む生成AI関連の議論は、知的財産の問題から、プライバシー、サイバーセキュリティ、制度の信頼性・正確性確保など、多様な観点から行われており、五月雨式に流れてくる感が否めない。その中で純粋にIPマターなものを除く形で、生成AI関連企業を各国がどのように規制しようとしているのかをリサーチし、情報をアップデートしていこうと思う。

2 日本

2.1 「AI事業者ガイドライン」の公表

 日本で議論の中心になっているのは経済産業省と総務省。松尾豊教授を座長としたAI戦略会議に呼んで、官民学連携の議論を行おうとしている。2024年4月19日には、「AI事業者ガイドライン(1.0版)」を公表した。なお、知的財産関連の議論は、別途内閣府知的財産戦略推進事務局や文化庁文化審議会著作権分科会法制度小委員会が行なっている。

 生成AI関連の議論が公的に、かつ、大々的になされ始めたのは、2023年5月、G7広島サミットにおいて、生成AIに関する国際的なルール検討「広島AIプロセス」の立ち上げからと見られる。その後、総務省が主導して作成した「AI開発ガイドライン案」、経産省が主導して作成した「AI原則実践のためのガバナンスガイドライン」が公表されている。これらの既存のガイドラインと他の指針を含めた形で統合・アップデートしたものが上のガイドライン。ざっとこのような位置付けになっているらしい。

 同ガイドラインの基本的な方針は、関係者による自主的な取り組みと非拘束的なソフトロールによって規律することにある。生成AIサービスの利害関係者をAI開発者、AI提供者、AI利用者のそれぞれの立場に分類し、企業等における対策の方向性を示すというのが目的。

 主要な価値としては、人間中心、安全性(信頼性・堅牢性)、公平性、プライバシー保護、セキュリティ確保、透明性、アカウンタビリティ、教育・リテラシー、公正競争確保、イノベーションが挙げられるなどを確認した。共通指針を示した上で、それぞれの立場における対策の方向性を示すことが目的。 それぞれの立場における重要事項について主要だと思われるところをとめると以下のようになる。問題をなるべく網羅的に捉えて、時系列・立場別にまとめたという点では重要なのかもしれないが、このガイドラインのみをみて、新たに企業側が「じゃあこれをすれば良いのか」という具体的なステップを示すものではないという感じを受けた。

AI開発者
  • プライバシーや知財に留意したデータの取り扱い
  • 潜在的バイアスの防止(学習時や出力後の確認)
  • 予期しない環境での利用に耐える性能や方針
  • 不適切な出力の防止
  • セキュリティ対策
  • 検証可能性(作業記録)
  • 関連ステークホルダーへの情報提供
AI提供者
  • システム実装時におけるガードレール技術等の検討
  • AI開発者の設定範囲内の利用
  • バイアス発生のモニタリング
  • 個人情報アクセスの管理、制限
  • セキュリティ対策
AI利用者
  • 規約遵守
  • バイアスへの配慮
  • 個人情報の取り扱い
  • セキュリティ対策

2.2 「AI開発ガイドライン案」の公表

 2024年2月には、IPA(情報処理推進機構)の下に AI Safety Institute が設立された。所長は、IBA の Watson 開発者である村上明子氏。これは下記にも紹介する他国での AI システム評価機関の設立の動きに対応したものだと考えられる。まだリリースがなされただけで、具体的な活動が公表されているわけではないようだが、注目していきたいグループ。

3 アメリカ

3.1 USAISIの設置

 米国は、2024年2月8日、AI システム評価機関として NIST(National Institute of Standards and Technology)の下に US AI Safety Institute(USAISI)を設置。

バイデン政権下で “safe, secure, trustworthy” な AI の開発を目指して始動し、モデルやシステムの安全性評価機関として機能することを目標としている。ちなみに、トップは Elizabeth Kelly(J.D. from Yale Law School, an MSc in Comparative Social Policy from the University of Oxford, and a B.A. from Duke University)と Elham Tabassi(機械学習と Computer Vision の研究者であり、OECD の AI ガバナンスに関するワーキンググループの副議長だった)。

 なお、2024年2月には、バイデン大統領令 “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”(2023年10月30日)の下、初のコンソーシアム AISIC が開催された(参加者は 200 名以上)。2024年4月時点のリリースでは、NIST は人間が作成したコンテンツと AI が作成したコンテンツの区別がつけられるような手法の開発をしていることが紹介されている。

 公表された書面のうち、重要なものとしては以下のものがある。これらの内容については後日まとめ直したい。

  • Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile
  • Secure Software Development Practices for Generative AI and Dual-Use Foundation Models: An SSDF Community Profile
  • A Plan for Global Engagement on AI Standards
  • Managing Misuse Risk for Dual-Use Foundation Models

3.2 USPTO における議論

 USPTO(U.S. Patent and Trademark Office)は、米国特許法上の特許要件を充足するために必要な発明の属する技術分野の通常の知識(ordinary skills in the arts)に AI がどのような影響を与えるかについて検討を進め、パブリックコメントを要求した。2024年2月13日には、ガイドライン “Inventorship Guidance for AI-assisted Inventions” を公表した。

4 イギリス

4.1 AI Safety Institute の設置

 イギリスにおいても、2023年11月、AIシステムの安全性評価機関として AI Safety Institute が設置されている。英国政府の Department for Science, Innovation and Technology の下に設置されている政府内スタートアップという位置付けである。

 所属しているメンバーを見てみると Yoshua Bengio(NN の研究者)、国家安全保障の専門家、Jade Leng(Open AIのガバナンスチームに所属)などがいる堂々たる顔ぶれ。

 評価対象には、Misuse(モデルがサイバー上、科学的、生物学的な攻撃に使われる可能性)、Societal Impacts(民主主義、個人の幸福への影響や不平等な結果をもたらす可能性)、Autonomy(モデルが人間とどのように相互作用し、あるいは操作し、人間の介入を排除するか)が挙げられている。

 これまで行なってきたこととしては、AI Safety Summit の実施、USAISI との連携、国際的なサイエンスレポート(Yoshua Bengio が率いる)の作成がある。International AI Safety ReportやProgress Preport(第1版から第4版まで公表されている)など公開文書については、後日まとめ直したい。

5 EU

5.1 AI Act の策定

 EU では、European AI Office (EUAIO) が中心になっている模様。EUAIO は、European Commission の下に設置されている機関で、2024年に制定された AI Act の策定主体でもある。2024年1月には AI Innovation Package を開始。GenAI4EU initiatives は、その構成要素になっている。 ちなみに、AI Act の特設サイトがある。

 なお、EUAIO と連携して活動している主体として、European Artificial Intelligence Board や European Center for Algorithmic Transparency (ECAT) がある。ECAT は、AI だけではなく、Digital Service Act のパッケージを策定したりしている機関。EUAIO や AI Act のサイトのアップデートを追っていくだけでも十分意味がありそう。