メニュー

生成AIと著作権法の現在地|法的観点で解説する「学習」と「利用」の境界線

2025.12.22 1分で読めます 生成AI総合研究所編集部

生成AIと著作権法の現在地|法的観点で解説する「学習」と「利用」の境界線

生成AI技術の急速な発展により、著作権法の解釈が大きな転換点を迎えています。ChatGPTやMidjourneyなどのAIツールが日常的に利用される中、「AIによる学習は著作権侵害にあたるのか」「生成された作品の権利は誰に帰属するのか」といった法的疑問が企業や個人から相次いでいます。本記事では、著作権法30条の4の詳細な解釈、国内外の最新裁判例、そして企業が直面する実務上のリスク管理について、法的観点から包括的に解説します。

著作権法30条の4とは|AI学習の法的根拠を理解する

日本の著作権法30条の4は、2018年の改正により新設された条文で、「著作物に表現された思想又は感情の享受を目的としない利用」について著作権者の許諾なく利用できることを規定しています。この条文がAI開発における機械学習の法的根拠となっており、世界的に見ても先進的な立法として評価されています。具体的には、以下の3つの要件を満たす場合に著作権制限が適用されます。

  • 非享受目的:著作物の表現を人が鑑賞・享受することを目的としない利用であること
  • 必要と認められる限度:利用目的に照らして必要な範囲内での利用であること
  • 著作権者の利益を不当に害しない:著作物の通常の利用を妨げず、著作権者の正当な利益を害しないこと

この条文の解釈において重要なのは、「学習段階」と「生成段階」を明確に区別する点です。学習段階では著作物を統計的なパターンとして処理するため、表現の享受目的ではないと解釈されます。一方、生成段階で既存著作物と実質的に同一の作品が生成された場合、著作権侵害のリスクが発生します。文化庁の「AIと著作権に関する考え方について」(2023年)では、この区分が詳細に説明されており、企業が法的リスクを評価する上での基準となっています。

[図解: 著作権法30条の4の適用範囲と学習・生成段階の法的区分を示すフローチャート]

学習と生成の法的境界線|どこまでが許され、どこからが侵害か

生成AIの著作権問題を理解する上で最も重要なのが、「学習」と「生成」の法的境界線です。学習段階では、大量の著作物をデータセットとして機械学習モデルに読み込ませますが、この行為自体は著作権法30条の4により原則として適法とされています。ただし、以下の3つのケースでは学習段階でも著作権侵害のリスクが生じます。

リスクケース1:享受目的の混在 データセットの構築過程で著作物を人間が閲覧・選別する行為が含まれる場合、非享受目的の要件を満たさない可能性があります。特に、画像生成AIの学習において特定の画風やスタイルを意図的に再現させるために著作物を選別する行為は、享受目的と判断されるリスクがあります。

リスクケース2:違法複製物の利用 学習データとして海賊版や違法アップロードされた著作物を利用した場合、著作権法30条の4第2号により権利制限が適用されません。データセットの出所確認が企業にとって重要な法的デューデリジェンスとなります。

リスクケース3:著作権者の利益を不当に害する場合 学習データとして利用することで著作物の市場価値を低下させる場合、権利制限が適用されない可能性があります。例えば、特定の漫画家の全作品を学習させて類似作品を大量生成できるモデルを構築する行為は、著作権者の利益を不当に害すると判断されるリスクがあります。

一方、生成段階では著作権法30条の4は適用されず、通常の著作権侵害の判断基準が適用されます。生成された作品が既存著作物と「類似性」と「依拠性」の両方を満たす場合、著作権侵害となります。ただし、AI生成の場合は依拠性の立証が困難であり、この点が裁判実務において重要な争点となっています。

[図解: 学習段階と生成段階における著作権リスクの違いを示す比較図]

国際的な裁判例の分析|Getty Images訴訟とSarah Silverman訴訟

生成AIと著作権をめぐる法的議論は、国際的な裁判例を通じて具体化しつつあります。特に重要な2つの訴訟を詳細に分析します。

Getty Images対Stability AI訴訟(米国・英国)

2023年1月、写真素材大手のGetty Imagesは、画像生成AI「Stable Diffusion」を開発したStability AIを著作権侵害で提訴しました。この訴訟の争点は、1200万点以上のGetty Images所有画像を無断で学習データとして使用した行為が著作権侵害およびトレードマーク侵害に該当するかという点です。

原告の主張は以下の通りです。第一に、Stability AIは許諾なくGetty Imagesの画像を大量に複製してデータセットに組み込み、著作権法上の複製権を侵害したという点。第二に、生成された画像の中にGetty Imagesのウォーターマークが変形した形で出現しており、商標権侵害にも該当するという点。第三に、Stable Diffusionは特定のプロンプトにより既存画像と実質的に同一の画像を生成可能であり、これはフェアユースの範囲を超えるという主張です。

一方、Stability AI側は、機械学習のための著作物利用はトランスフォーマティブユース(変容的利用)に該当し、米国著作権法のフェアユースの範囲内であると反論しています。また、学習プロセスは著作物の表現そのものではなく統計的パターンを抽出するものであり、著作権の保護対象である「表現」を利用していないと主張しています。

2024年8月の中間判決では、裁判所はStability AIのフェアユース抗弁を部分的に認める一方、ウォーターマーク問題については著作権侵害の可能性を否定せず、審理を継続することを決定しました。この判決は、AI学習におけるフェアユースの適用範囲について重要な先例となる可能性があります。

Sarah Silverman対OpenAI・Meta訴訟

2023年7月、作家のSarah Silvermanら複数の著作者が、OpenAI(ChatGPT開発元)とMeta(LLaMA開発元)を著作権侵害で提訴しました。訴状によれば、両社は原告の著作物を無断で学習データとして使用し、さらにChatGPTやLLaMAが原告の著作物の内容を要約・再生産できることが著作権侵害の証拠であると主張しています。

この訴訟の重要な争点は、大規模言語モデル(LLM)が学習データの一部を「記憶」して出力する現象が著作権侵害に該当するかという点です。原告側は、ChatGPTに「Sarah Silvermanの著書『The Bedwetter』の要約を書いて」と指示すると、実際の内容に基づいた要約が生成されることを証拠として提出しました。

2024年2月の判決では、裁判所はOpenAIの棄却申し立てを部分的に認め、直接的著作権侵害の主張については審理を継続する一方、DMCA(デジタルミレニアム著作権法)1202条違反などの一部請求を棄却しました。重要な点として、裁判所は「LLMの出力が著作物の派生物に該当するか」という問題について、さらなる証拠提出と審理が必要であると判断しました。

これらの訴訟から明らかになるのは、AI学習における著作権の法理論が未だ確立途上であり、各国の裁判所が異なる解釈を示す可能性があるという点です。企業はこうした法的不確実性を前提としたリスク管理体制の構築が求められます。

日本国内の法的動向と文化庁の見解

日本では、文化庁が2023年6月に「AIと著作権に関する考え方について」を公表し、著作権法30条の4の解釈指針を示しました。この文書は、生成AIをめぐる著作権問題について日本政府の公式見解を示すものとして重要な意義を持ちます。

文化庁の見解によれば、AI学習のための著作物利用は原則として著作権法30条の4により適法とされますが、以下の場合には権利制限が適用されない可能性があります。第一に、学習用データセットとして著作物を販売・提供する行為は、データセット自体が鑑賞目的で利用される可能性があるため、非享受目的の要件を満たさない場合があります。第二に、特定の著作物の創作的表現を学習させ、それと同一または類似の出力を生成させることを目的とする場合、著作権者の利益を不当に害すると判断される可能性があります。

また、生成段階については、AIが既存著作物と類似した作品を生成した場合、通常の著作権侵害の判断基準が適用されます。ただし、利用者がAI生成物を公表・利用する際に既存著作物との類似性を認識していたかという点が、依拠性の判断において重要な要素となります。文化庁は、企業に対してAI生成物の利用前に既存著作物との類似性チェックを行うことを推奨しています。

さらに、2024年には内閣府知的財産戦略本部が「AI時代の知的財産権検討会」を設置し、生成AIに関する法制度のさらなる整備を検討しています。特に、学習データの出所表示義務や、AI生成物の権利帰属に関する新たな立法措置が議論されており、今後の法改正によって企業の対応義務が拡大する可能性があります。

[図解: 文化庁が示すAI学習と著作権法30条の4の適用判断フローチャート]

企業が直面する著作権リスクの類型化

企業が生成AIを業務利用する際に直面する著作権リスクは、利用段階によって以下の5つの類型に分類できます。

リスク類型1:自社開発AIモデルの学習データ選定

自社でAIモデルを開発する場合、学習データとして利用する著作物の選定が最初のリスクポイントとなります。インターネット上の画像やテキストを無差別にスクレイピングして学習データとする行為は、違法複製物を含む可能性があり、著作権法30条の4の適用除外事由に該当するリスクがあります。特に、Webスクレイピングによって取得したデータには、robots.txtで収集を禁止しているサイトのデータや、利用規約で機械学習利用を明示的に禁止しているサービスのデータが含まれる可能性があり、契約違反のリスクも併存します。

リスク類型2:第三者提供の学習済みモデルの利用

OpenAIのGPTシリーズやStability AIのStable Diffusionなど、第三者が提供する学習済みモデルを利用する場合、モデル開発者の著作権侵害リスクが利用企業に波及する可能性があります。特に、モデル提供者が著作権侵害訴訟で敗訴した場合、そのモデルを利用して生成されたコンテンツの利用停止や損害賠償請求のリスクが発生します。企業は、モデル提供者の利用規約における免責条項や補償条項を精査し、法的リスクの分担について事前に確認する必要があります。

リスク類型3:AI生成コンテンツの商業利用

AI生成した画像・テキスト・音楽を商業目的で利用する場合、既存著作物との類似性チェックが不可欠です。特に、画像生成AIで特定のアーティストの画風を指定して生成した作品や、テキスト生成AIで特定の小説の続編を生成した作品は、著作権侵害のリスクが高くなります。企業は、AI生成コンテンツを公開前に類似性検索ツール(Google画像検索、TinEyeなど)で既存著作物との比較を行い、法務部門によるリーガルチェックを経ることが推奨されます。

リスク類型4:従業員によるAI利用の管理不足

従業員が業務で生成AIを使用する際、著作権リスクを認識せずに既存著作物と類似したコンテンツを生成・公開してしまうリスクがあります。特に、マーケティング部門がAI生成画像を広告に使用する場合や、開発部門がAI生成コードを製品に組み込む場合、組織的なチェック体制がなければ著作権侵害のリスクが見過ごされる可能性があります。企業は、AI利用ガイドラインの策定と従業員教育が必須となります。

リスク類型5:クロスボーダーの法的複雑性

生成AIの著作権法制は国によって大きく異なり、日本では適法とされる行為が海外では違法となる可能性があります。特に、米国ではフェアユースの解釈、EUではDSM著作権指令の適用、中国では生成AIサービス管理弁法の規制など、各国独自の法制度が存在します。グローバル展開する企業は、各国の法制度に対応したコンプライアンス体制の構築が求められます。

企業のための実務的リスク管理フレームワーク

生成AIの著作権リスクを効果的に管理するため、企業は以下の6段階のリスク管理フレームワークを導入することが推奨されます。

第1段階:AI利用方針の策定 経営層主導で生成AIの利用方針を策定し、著作権リスク管理の基本方針を明確化します。特に、どの業務領域でAI利用を許可するか、どのようなAI生成コンテンツの商業利用を認めるかについて、明確な基準を設定します。

第2段階:利用ガイドラインの整備 従業員向けに具体的なAI利用ガイドラインを作成し、著作権侵害リスクの高い行為(特定アーティストの模倣、既存作品の再生成など)を明示的に禁止します。ガイドラインには、AI生成コンテンツの公開前チェックフローや、リスク判断のエスカレーションルールを含めます。

第3段階:技術的対策の実装 AI生成コンテンツと既存著作物の類似性を自動検出するツールを導入し、リスクの高いコンテンツを事前にフィルタリングします。また、生成AIの利用ログを記録し、問題発生時のトレーサビリティを確保します。

第4段階:契約管理の強化 外部のAIサービスを利用する際は、利用規約における著作権侵害時の責任分担や補償条項を精査し、必要に応じて個別契約で追加的な保護条項を設けます。特に、AI生成コンテンツの権利帰属や、第三者からのクレーム発生時の対応義務について明確化します。

第5段階:教育プログラムの実施 全従業員を対象としたAI著作権リスクの教育プログラムを定期的に実施し、リスク認識を組織全体に浸透させます。特に、AI生成コンテンツを直接扱う部門(マーケティング、開発、デザインなど)には専門的な研修を提供します。

第6段階:監査と継続的改善 定期的にAI利用状況の監査を実施し、ガイドライン違反や潜在的リスクを早期発見します。また、最新の裁判例や法改正の動向をモニタリングし、リスク管理体制を継続的に改善します。

AI開発企業と利用企業の責任分担モデル

生成AIをめぐる著作権責任は、AIモデルの開発企業と利用企業の間でどのように分担されるべきかという問題が実務上重要です。以下の表は、主要なAIサービスにおける責任分担モデルを比較したものです。

AIサービス開発企業の責任範囲利用企業の責任範囲補償条項の有無致命的な弱点
OpenAI GPTシリーズ学習データの適法性確保生成コンテンツの利用責任エンタープライズプランのみ有無料・個人プランは補償なし、利用者が全リスクを負担
Google Geminiモデルの技術的瑕疵プロンプト設計と出力利用Workspace契約で限定的に有補償は米国企業のみが対象、日本法人は対象外の可能性
Stability AI学習プロセスの適法性主張生成物の著作権チェックなし利用規約で一切の保証を免責、訴訟リスクは全て利用者負担
Adobe Firefly学習データの権利処理済み保証商業利用における最終確認商業利用に対して補償あり補償上限額が設定されており、大規模訴訟では不足する可能性
Midjourney技術的機能の提供のみ生成画像の著作権リスク全般なし学習データの出所が不透明、第三者の権利侵害リスクが不明

この表から明らかなように、多くのAIサービスでは利用企業が著作権リスクの大部分を負担する契約構造となっています。特に注目すべきは、Adobe Fireflyのように学習データの権利処理を明示的に保証するサービスと、Stability AIのように一切の保証を免責するサービスの間で、企業が負うリスクに大きな差があるという点です。企業のリスク選好度に応じて、適切なAIサービスを選定することが重要です。

業界別のAI著作権リスク対応事例

生成AIの著作権リスクは業界によって異なる形で顕在化します。以下、主要業界における具体的な対応事例を紹介します。

出版・メディア業界

出版社A社では、AI生成テキストを記事に使用する際の3段階チェック体制を導入しています。第1段階として、編集者がAI生成テキストと既存記事の類似性を目視確認します。第2段階として、剽窃検出ツール(Copyscape、Turnitin)でインターネット上の既存コンテンツとの一致率を検証します。第3段階として、法務部門が著作権リスクの最終判断を行い、リスクが高いと判断された場合は人間による書き直しを要求します。この体制により、AI生成コンテンツの公開後の著作権クレームゼロを実現しています。

広告・マーケティング業界

広告代理店B社では、AI生成画像を広告クリエイティブに使用する際、必ずAdobe Fireflyなど権利処理済みデータで学習したAIのみを使用するポリシーを採用しています。また、AI生成画像には必ず「AI生成」の表示を付け、クライアントに対してAI利用の事実を開示することで、透明性を確保しています。さらに、広告公開前に弁護士による著作権リスク評価を必須とし、高リスク案件は利用を見送る判断基準を設けています。

ソフトウェア開発業界

ソフトウェア企業C社では、GitHub Copilotなどのコード生成AIを開発に利用する際、生成されたコードのライセンス適合性チェックを自動化するツールを導入しています。具体的には、AI生成コードと既存のオープンソースコードの類似性を検出し、GPL等のコピーレフトライセンスのコードが混入していないかを確認します。また、AI生成コードであることをコメントに記載し、将来的な監査に備えたトレーサビリティを確保しています。

今後の法改正の動向と企業の準備

生成AIをめぐる著作権法制は、国際的に大きな転換期を迎えています。企業が注視すべき法改正の動向として、以下の3点が挙げられます。

動向1:学習データの開示義務化 EUのAI法では、汎用AIモデルの提供者に対して学習データの詳細情報開示を義務付ける規定が含まれています。日本でも同様の規制が導入された場合、企業は自社開発AIモデルの学習データについて詳細な記録と開示の準備が必要となります。

動向2:AI生成物の表示義務 複数の国でAI生成コンテンツに対する表示義務の立法化が検討されています。中国では既に「生成AIサービス管理弁法」によりAI生成コンテンツへのラベル表示が義務化されており、日本でも同様の規制が導入される可能性があります。企業は、AI生成コンテンツを識別・管理するシステムの構築を事前に準備すべきです。

動向3:著作権者のオプトアウト権 著作権者が自身の著作物をAI学習から除外する権利(オプトアウト権)の法制化が国際的に議論されています。この権利が確立された場合、企業は学習データの選定段階でオプトアウト情報を確認する義務が発生し、データセット構築のコストが増加する可能性があります。

これらの法改正に備え、企業は現時点から柔軟なコンプライアンス体制を構築し、新たな規制要求に迅速に対応できる準備を進めることが推奨されます。特に、AIガバナンス体制の整備、学習データの記録管理システムの導入、法務部門とIT部門の連携強化が重要な準備項目となります。

結論|生成AI時代の著作権コンプライアンス戦略

生成AIと著作権法の関係は、技術の進化と法解釈の発展が並行して進む複雑な領域です。日本の著作権法30条の4は世界的に先進的な立法として評価される一方、その解釈の詳細は裁判例や行政指針によって徐々に明確化されつつあります。企業にとって重要なのは、法的不確実性を前提としたリスク管理体制を構築し、技術的対策、契約管理、従業員教育を統合的に実施することです。

Getty Images訴訟やSarah Silverman訴訟などの国際的な裁判例は、AI学習における著作権の境界線がまだ流動的であることを示しています。企業は、自社のAI利用が「学習」の範囲内にとどまっているか、「生成」段階で既存著作物を侵害していないかを常に検証する必要があります。特に、商業利用を前提とするAI生成コンテンツについては、法務部門による事前審査と継続的なモニタリングが不可欠です。

今後、各国でAI規制法が整備され、企業の義務が拡大していくことが予想されます。先進的な企業は、規制対応を単なるコストとして捉えるのではなく、適切な著作権コンプライアンス体制を競争優位性の源泉として位置づけています。透明性の高いAI利用プロセス、権利処理済みの学習データの使用、AI生成物の明示的な表示などは、消費者や取引先からの信頼獲得につながります。生成AI時代の著作権コンプライアンスは、リスク管理であると同時に、企業価値向上の戦略的要素として捉えるべきでしょう。

本記事で解説した法的フレームワーク、リスク類型、実務的対策を参考に、各企業が自社の事業特性に応じた著作権コンプライアンス体制を構築されることを期待します。

MUST READ

生成AI、結局どう使う?を解決する
現場のための「導入・活用実践ガイド」

「何から始めるべきか分からない」悩みを解消。ビジネスの現場で明日から使えるチェックリストと選定基準をまとめました。

  • 失敗しない「ツール選定比較表」
  • 非専門家でもわかる「活用ステップ」
  • 最低限知っておくべき「安全ルール」
  • 現場が納得する「導入の進め方」
FREE
GENERATIVE AI
BUSINESS GUIDE

Share

Xで共有 Facebook

おすすめ資料

生成AI導入の成功手順をまとめたホワイトペーパーを無料配布中です。

ダウンロードする

関連記事

すべて見る
議事録AI評価No.1
Notta (ノッタ)
無料で試す