生成AI

最終更新日:2026/02/09
JDLA AI利用ユースケース
JDLAは、生成AIの「利用」局面において企業・組織が直面しやすい法的論点について整理した「法と技術の検討委員会報告書Ⅱー AI 利用に関するユースケースー」を公開しました。
このニュースのポイント
一般社団法人日本ディープラーニング協会は、有識者委員会「法と技術の検討委員会」における議論を踏まえ、生成AIの「利用」局面において企業・組織が直面しやすい法的論点について整理した「法と技術の検討委員会報告書Ⅱー AI 利用に関するユースケースー」を公開しました。
生成AIは、業務効率化や新たな価値創出の可能性を持つ一方、個人情報保護や著作権に関する過度なリスク懸念から利活用が進んでいないケースも散見されます。
また、AIエージェントなど自律的に情報にアクセスするAIの普及が進みつつあることにより、企業などにおいてよく見られる「生成AIへの個人情報入力禁止」といった一律的な運用が困難になりつつあります。
「法と技術の検討委員会」は、法律、技術、ビジネスの各分野の専門家が参画し、特定の立場に偏ることなく、現行法の枠組みを前提に、実務に即した検討を継続的に行っています。
本報告書は、個人データの取り扱いと著作権侵害リスクにフォーカスし、一定のルールと原則を遵守することで生成AIによる両リスクを大幅に低減可能であるとの見解を提示するものです。
生成AIの「利用」局面において、企業や組織が実務上判断に迷いやすい法的論点について、現行法の枠組みを前提に整理したものであり、生成AIの利用を一律に制限または推奨することを目的とするものではなく、法的拘束力を有するものではありません。
生成AIの個人データ入力に関する考え方について、生成AIサービスの技術的特性や契約条件などを踏まえ、代表的な生成AIサービス(Gemini、ChatGPT、Microsoft 365 Copilot)についても特定の条件下では個人データの入力が可能と整理しうるとの考えが示されています。
またAI生成物と著作権侵害リスクへの向き合い方として、AI生成物を個別に確認する運用は、実効性がなく合理的とは言い難い場合があるという前提のもと、生成AIの利用方法やプロセス、社内ルールの設計に注意することこそが重要であり、これにより著作権侵害リスクは相当程度低減できるとの考え方が示されています。
報告書全体を通じた考え方として、生成AIは「一律に禁止すべきもの」でも「無条件に利用できるもの」でもなく、条件整理と適切な運用のもとで活用可能な技術です。
企業や組織においては、リスクを過度に恐れて利用を控えるのではなく、現行法の枠組みを前提に、合理的なガバナンスの下で生成AIを活用していくことが重要であるとしています。
本報告書の全文はJDLAの公式サイトにて公開されています。
業務の課題解決に繋がる最新DX・情報をお届けいたします。
メールマガジンの配信をご希望の方は、下記フォームよりご登録ください。登録無料です。
AI製品・ソリューションの掲載を
希望される企業様はこちら