AI技術は急速に進化し、私たちの社会や仕事に深く浸透しています。
こうした技術の利活用が進む一方で、AIに関わるリスク管理・倫理・制度対応もまた、同時に進化し続けています。
日本でもAIに関する法律「人工知能関連技術の研究開発及び活用の推進に関する法律」(AI推進法)が公布されましたのでこのタイミングで少しAIに関する規制やフレームワークなどをまとめてみました。
本稿では、2025年6月時点での主要なガイドライン・規制体系や、実務者が押さえておくべきAIガバナンスとAIセキュリティの基本構造を整理します。(AIの発展は急速ですので、同様に規定類も早い動きがあると予測しています)
AIセキュリティとは、AIシステムとその利用環境を様々な脅威から保護し、安全かつ倫理的に運用するための包括的な取り組みを指します。対象には、モデル自体・学習データ・API連携・出力内容など多岐にわたります。
AI事業者ガイドライン(経産省・総務省)
「人間中心」「透明性」「安全性」「アカウンタビリティ」「教育」「プライバシー保護」等を掲げる共通指針
リビングドキュメントとして継続的に更新中
生成AIリスク対策ガイドブック(α版)[デジタル庁]
公共分野における生成AIの4つの典型ユースケース(チャットボット、要約、検索補助、コード生成)を想定 → 統合予定の包括的ガイドラインの先行ドキュメント
AI推進法(2025年5月成立・6月公布)
基本理念に「人間の尊厳」「多様性と包摂性」「持続可能性」を明記 → 日本初のAI分野特化法として罰則なしの推進型アプローチを採用
OECD AI原則(G20共通基盤)
包摂的な成長/人間中心の価値/透明性と説明責任/頑健性・セキュリティ・安全性/アカウンタビリティの5原則
ISO/IEC 42001(AI専用マネジメントシステム規格)
ISO/IEC 27001(ISMS)と類似の構造を持つAI専用のマネジメントシステム規格として、AIに固有のガバナンス要素を導入
NIST AI RMF(米国NISTによるAIリスク管理枠組み)
GOVERN / MAP / MEASURE / MANAGE の4層構造でAIリスクを整理
EU AI Act(世界初のAI法)
許容不可(社会的スコアリングなど)
高リスク(法執行・雇用など)
限定リスク(チャットボット)
最小リスク(ゲーム等)
GPAI規制(2025年8月から段階的に適用) - ChatGPTなどの汎用目的AI向け
MITRE ATLAS→ MITRE ATT&CKのAI版、AIシステムへの攻撃手法やリスクパターンを体系化
OWASP Top 10 for LLMs→ 機密情報漏洩/プロンプトインジェクション/データポイズニング/偽情報生成/リソース枯渇など、LLM固有の脅威を整理
目的・機能・制限事項・アルゴリズム概要などを開示
ステークホルダーごとに適切な情報提供が求められる
技術的説明(内部ロジック)
利用者向け説明(非技術者でも理解できる)
法的説明(規制当局への適合)
組織としてのガバナンス体制確立
モニタリング・文書化・監査可能性の担保
継続的なリスク管理と是正措置の運用
AIガバナンスとAIセキュリティは、もはや「技術者だけの話」ではなく、経営・法務・現場実装すべてが関与すべきテーマです。
2025年6月時点で必要とされるのは:
各種ガイドライン・法規制の意図を理解し、現場に落とし込む力
技術的リスクと組織的リスクを統合的に捉える視点
透明性・説明責任・ガバナンスを意識した設計と運用
それぞれの組織が、自らの立場から何をすべきかを再確認しAIの健全な利活用とリスクコントロールを両立する取り組みが求められています。
AI活用や制度対応に関するご相談・講演依頼など、内容に応じて丁寧に対応させていただきます。
まずはお気軽にご連絡ください。
お問い合わせはこちら