- 2024年 10月 24日
近年、AI技術の急速な進展に伴い、個人情報保護の重要性がますます高まっています。各国は、個人情報の適切な管理と保護を確保するために、独自のAI関連法令、ガイドライン、ガイダンスを策定し始めています。これらは、各国のプライバシー保護法や産業別規制法などをベースとし、個人データの収集、処理、保存、共有に関する一定のルールや基準を設けることで、利用者のプライバシーを保護し、AIの透明性と倫理性を向上させることを目的としています。
本記事では、日本、EU、米国などを中心に、主要なAI関連法令、ガイドライン、ガイダンスの概要とその特徴を一覧形式で紹介します。なお、このリストは今後随時更新します。
*前回2024年7月31日版からの更新箇所について、赤字で記載しています
日本
名称 | 所管庁 | 概要・特徴 |
---|---|---|
AI事業者ガイドライン(2014年4月19日) | 経済産業省 総務省 |
AIの安全かつ安心な活用を促進するための指針を提供。AI開発ガイドライン(平成29年、総務省)、AI利活用ガイドライン(令和元年、総務省)、AI原則実践のためのガバナンスガイドラインVer1.1(令和4年、経済産業省)を統合。 |
欧州
欧州では、EUにおける包括的なAI規制法として、EU AI Act(AI法)が欧州議会を通過後、2024年5月21日にEU理事会で承認されました。EU加盟各国は、国内のAI規制の根拠をAI法の直接適用に求めるものと見られます。
欧州各国では、個人データ保護の観点から、データ保護監督当局が中心となり、AIシステムの開発や使用に関するガイダンス案が公表されていますが、ほとんどがパブリックコメント版であり、実質的な拘束力を持つ国内法やガイドライン、ガイダンスは限定的です。
国名 | 名称 | 概要・特徴 |
---|---|---|
EU (欧州連合) |
AI法(発効日:2024年8月1日) | 欧州レベルの包括的なAI規制法。AIをリスクレベルに応じて4つのカテゴリー(許容できないリスク、高リスク、透明性リスク、最小リスク)に分類するリスクベースアプローチを採用。 違反した場合、最大で3,500万ユーロまたは年間世界売上高の7%の罰金が科される可能性 |
人工知能法の枠組みにおけるデータ保護当局の役割に関する声明(公開日:2024年7月16日) | 各国監督当局(DPA)が、EU AI法における高リスクAIシステムの市場監視当局(MSA)とすべきとするEDPB声明。 | |
英国 | AI とデータ保護に関する ガイダンス(公開日:2023年3月15日) |
AI技術の使用に伴うデータ保護リスクを管理するためのガイドライン。AIシステムが個人データを処理する際のデータ保護法の解釈と、リスクを軽減するための組織的および技術的な対策に関する推奨事項を含む。 |
生成型AIとデータ保護に関するICOコンサルテーション・シリーズ(公開日:2024年6月10日) | 生成型AIモデルの開発と使用に対するデータ保護法の適用に関するガイダンスシリーズ。パブリックコメントに付された内容を掲載。 | |
医療機器変更プログラムとしてのソフトウェアとAI – ロードマップ(公開日:2024年4月16日) | 医療分野での人工知能(AI)を含むソフトウェアに対する規制要件の明確化と、確実な患者の保護を目的としたガイダンス。 |