CYBER-SECURE(以下「当方」といいます)は、AI(人工知能)技術の活用にあたり、その透明性・説明責任・安全性・倫理性を確保することが信頼構築と持続可能な社会の実現に不可欠であると認識しています。
本ポリシーは、当方が提供または利用するAI関連サービスにおいて、責任ある利活用を実現するための基本的な考え方を示すものです。
本ポリシーにおける「AI」とは、機械学習モデル、大規模言語モデル(LLM)、アルゴリズムベースの意思決定支援システムなど、人間の認知や判断を模倣・補完する技術を指します。
このポリシーは、当方が関与する以下の活動に適用されます:
自社ウェブサイトおよびSNS等で発信するコンテンツ
クライアント向けの分析・報告・提案活動
講義・講演などの知見提供
その他、AIを活用して生成・支援された成果物のうち、第三者への提供・開示を伴うもの
当方では、AIを以下の目的で活用します:
情報整理・文章生成・翻訳・構成支援
データの要約・分類・可視化
セキュリティ分析・DPIA補助・対策検討支援
社内業務の効率化と品質向上
ただし、最終判断および対外的説明責任は必ず人が担うものとします。
AI活用に伴うリスク(例:誤情報、バイアス、出力の逸脱、セキュリティ上の懸念)に対して、以下の措置を講じます:
重要な意思決定は必ず人による確認・レビューを実施
法的・倫理的な観点からの二次チェックを実施
生成物に対して適切な保管・再利用制限のガイドラインを適用
AIツールの選定時には、ベンダーの信頼性・規制遵守状況を確認
当方では、AIによる生成物を利用者に提供する際、次のような方針を取ります:
重要な文書・成果物については、AI補助の有無を必要に応じて明示
日常的な文案整理や草案補助については、最終確認を人が行うことを前提とし、個別明示は行わない
セキュリティ・プライバシー・倫理に関する記事等では、AIと人の役割分担を明記または明確化
当方は、以下の法令・ガイドライン等に留意し、適切に対応します:
AI推進法(日本、2025年6月公布)
経済産業省・総務省「AI事業者ガイドライン」
デジタル庁「生成AIリスク対策ガイドブック(α版)」
EU AI Act / ISO/IEC 42001 / NIST AI RMF 等の国際的枠組み
MITRE ATLAS、OWASP Top 10 for LLM などのセキュリティ知見
これらの動向を継続的にモニタリングし、当方のガバナンス方針を適宜見直します。
AI活用に関するご質問やご懸念がある場合は、以下の窓口までご連絡ください:
CYBER-SECURE|AIガバナンス窓口
制定日:2025年06月30日
最終更新日:2025年06月30日
CYBER-SECURE
代表 黒瀬健太郎