他の法域の規則や規制を見ることができます。
日本では、現在、人工知能の管理に対して「ソフト・ロー」と呼ばれるアプローチが採用されており、法的な義務ではなく推奨事項を通じて自発的な遵守を促しています。経済産業省(METI)は、人工知能開発者の良い実践を奨励するために、2022年1月に非拘束力のガイドラインを発表しました。さらに、日本は安全で信頼性の高い人工知能の推進のために、広島原則を策定し、グローバルレベルでの活動を行っています。1
しかし、自由民主党の作業部会は、「責任ある人工知能の発展に関する基本法」と呼ばれる「ハードロー法」アプローチを提案しています。提案された法律は、特定の生成的人工知能モデルを規制し、開発者に対する国家の監督、定期報告、および遵守義務を規定します。この新しい法律は、日本の現行規制戦略からより強制的な法的基盤への重要な変更を表しています。2
現在、日本には人工知能の開発、利用、提供を規制する特定の法律はありません。しかし、提案された「責任ある人工知能の発展に関する基本法」は、人工知能システムやアプリケーションのための法的基盤を確立する可能性があります。2
日本では、人工知能に特化しているわけではありませんが、その開発と利用に影響を与えるいくつかの既存の法律が存在しています。たとえば、デジタルプラットフォーム透明性法は、大手オンライン取引プラットフォームやデジタル広告ビジネスにおける取引の公正さと透明性を確保しています。また、金融商品取引法はアルゴリズム取引を規制し、これらのシステムを管理する者の登録と取引記録の保持を義務付けています。2
民法は、人格権侵害事件に対する訴訟を提起する権利を規定しており、人工知能によって中傷的なコンテンツを作成および公開する指示を与える者に対しても適用されます。著作権法と個人情報保護法は、人工知能の不当利用にも適用されます。また、刑法は、中傷、人工知能による偽のコンテンツの作成によるビジネス妨害、他人のコンピュータへの不正な命令など、人工知能に関連するさまざまな違法行為を規制する可能性があります。これらの法律は、日本における人工知能の使用に影響を与え、人工知能に特化した規制がない場合でも影響を与えます。2
日本には「人工知能」という法的に認められた定義はありません。経済産業省と総務省が発表したビジネス向けの人工知能に関する草案の推奨事項は、人工知能の定義が確立されていないことを認め、その適用範囲を厳密に定義することの複雑さを強調しています。しかし、この草案では、経済産業省は人工知能を抽象的な概念として捉え、人工知能システム、ソフトウェア、機械学習プログラムを含むとしています。3
現在、人工知能の開発、利用、普及を直接規制する特定の法律や規制は存在していません。また、日本の既存の指針や原則では、人工知能や人工知能システムは通常、リスクに基づいて分類されていません。しかし、特定の政府関係者がリスク評価に基づくアプローチの必要性を認識しているとの報告があります。4
現在、日本には、人工知能の開発、利用、提供を直接規制する特定の法律や規制が存在していません。しかし、経済産業省の草案ガイドラインは、日本が遵守しようとする原則を示しています。これらの原則はさまざまな側面を強調しています。5
まず、人工知能アプリケーションは、人間中心の方向性で動作する必要があり、国内および国際基準で保護されている人権を侵害しないようにすることを確保するべきです。この原則は、人工知能の開発と利用における倫理的側面の重要性を強調しています。5
第二に、人工知能に関わる立法者やビジネスリーダーは、人工知能技術に対する包括的な理解を持ち、適切な知識と倫理的枠組みを持っている必要があります。これにより、人工知能が社会で責任あるかつ効果的に使用され、潜在的なリスクが考慮され、利点が最大限に活用されることが保証されます。5
第三に、プライバシー保護は重要な問題のままです。関係者は、個人データを慎重に取り扱うことをお勧めし、そのデータの機密性と重要性を考慮するべきです。この原則は、デジタル化と世界の相互依存がますます進む中で、個人の権利を保護するための広範な取り組みに合致しています。5
日本は、人工知能の潜在的な利点の活用と関連リスクの管理のバランスを見つけようとしています。これには、社会の安全性と持続可能性の向上が含まれており、人工知能のアプリケーションの推進において重要な側面です。5
人工知能のグローバルな领域での公正な競争を促進することは重要です。国々や参加者間の公平な条件を確保することは、イノベーションを促進し、技術革新を遅らせる可能性のある独占的な慣行を防ぎます。5
透明性、責任、公正さは、「人工知能に対応した社会」において重要な役割を果たします。意思決定プロセスは透明であり、責任があり、偏見から自由でなければならず、人工知能技術への信頼を維持し、潜在的な差別を減らすために必要です。5
最終的に、学術機関、研究機関、産業の協力を促進することは、人工知能の革新に貢献します。政府は、人工知能の研究開発に好条件を提供する規制改革を容易にすることで、社会のより効果的で有益な発展に貢献しています。5
これらの原則は、倫理的な問題を考慮し、社会に人工知能技術を責任ある持続可能な方法で統合し、社会的利益を最大化するために日本を導くことを目的としています。5
経済産業省、警察庁、文化庁(特に著作権に関するもの)、個人情報保護委員会を含む複数の省庁や機関が、人工知能に関する推奨事項の策定と普及に重要な役割を果たしています。これらの推奨事項は法的拘束力を持っていませんが、日本においてビジネスや一般社会に広く影響を与え、広く従われています。2