Sora 2の機能進化と著作権リスク、各国法制と実務対策を解説
2025年9月30日、OpenAIは次世代動画生成AI「Sora 2」を発表しました。音声も同時に作れる画期的なツールですが、著作権をめぐる深刻な問題も抱えています。このレポートでは、技術の進化、法的リスク、実践的な対策まで、クリエイターと企業が今知るべき情報を解説します。
Sora 2の最大の進化は、動画と音声を同時に作れる「ネイティブ音声生成機能」です。セリフ、効果音、BGMまで動画と完全に同期して自動生成されます。これまでのように別の音声ツールを使う必要がなくなり、OpenAIは「洗練されたサウンドスケープ、音声、効果音を高いリアリズムで生成できる」と説明しています。
「カメオ機能」も画期的です。一度だけビデオと音声を録音して本人確認を行えば、自分や友人の容姿をAI動画に登場させられます。CEOサム・アルトマンは「キャラクターの一貫性に非常に力を入れた。カメオ機能は驚くほど魅力的な新しいつながり方だと感じた」と述べています。ユーザーはいつでもアクセスを取り消し、自分の容姿を含む動画を削除できる完全なコントロール権を持っています。
物理シミュレーションも大幅に向上しました。従来のモデルは「過度に楽観的」で、バスケットボールのシュートを外してもボールが自動的にゴールに瞬間移動することがありました。Sora 2では、外せばバックボードに跳ね返ります。OpenAIは「従来のモデルはテキストプロンプトを実行するために物体を変形させたり現実を歪めたりしていた」と説明しています。
この改善により、オリンピック体操の演技、パドルボード上でのバックフリップ、トリプルアクセルなど複雑な物理現象を正確にモデル化できるようになりました。重要なのは、失敗状態も正確に再現できることです。単なる成功だけを描いていた従来モデルとの決定的な違いです。
最大解像度は1080p(1920×1080ピクセル)で、すべての公式デモがこの解像度で公開されています。動画の長さは5〜10秒が中心で、生成時間は短いクリップで1分未満です。リアリスティック、シネマティック、アニメスタイルで特に優れた性能を発揮しますが、OpenAI自身も「完璧には程遠く、多くのミスを犯す」と認めています。
現在は米国とカナダのみで招待制として提供されています。ChatGPT Proユーザー(月額200ドル)は即座にアクセスでき、1080p/20秒の動画を透かしなしで生成できます。ChatGPT Plusユーザー(月額20ドル)は招待を待つ必要があり、720p/10秒の動画に透かしありとなります。OpenAIはAPI機能を「数週間以内に提供予定」と発表しており、サードパーティアプリケーションへの統合が可能になります。
OpenAIの利用規約には「あなたとOpenAIの間において、適用法で許される範囲で、あなたは入力における所有権を保持し、出力を所有する。当社は出力における当社の権利、権原、利益のすべてをあなたに譲渡する」と明記されています。一見理想的ですが、米国著作権法の現実はまったく異なります。
米国著作権局は2025年1月に公式見解を発表し、「人間の著作者が十分な表現要素を決定した場合にのみ」AI生成出力が保護されると明言しました。さらに重要なのは、「現在一般的に利用可能な技術を考えると、プロンプトだけでは著作権の資格を得るための十分な人間のコントロールを提供しない」という判断です。
つまり、単純なプロンプトで生成したSora動画は、米国では著作権保護を受けられない可能性が高いということです。著作権保護を得るには、「創造的な編集、選択、または配置」など相当な人間の創造的貢献が必要となります。これは実務上、大きな意味を持ちます。著作権がないということは、第三者が勝手にその動画を使用、改変、商用利用しても、法的に差し止めや損害賠償を求められないということです。
すべてのサブスクリプション階層で商用利用は明示的に許可されています。OpenAIは生成されたコンテンツに対する権利を主張せず、追加ライセンス料も不要です。ただし、階層間で重要な違いがあります。
ChatGPT Plus(月額20ドル)では、月50本の480p動画または少数の720p動画、最大5秒、目立つ透かしありとなります。人物画像のアニメーション化は不可です。一方、ChatGPT Pro(月額200ドル)では、最大1080p解像度、20秒まで、透かしなしでダウンロード可能です。人物画像のアニメーション化が可能で、5本の動画を同時生成できます。
重要なのは、すべての動画にC2PA(Coalition for Content Provenance and Authenticity)メタデータが埋め込まれていることです。これは改ざん防止署名として機能し、コンテンツがSora生成であることを証明します。透かしを削除しても(Pro階層)、このメタデータは残ります。
2025年9月下旬、Sora 2のローンチ直前に、OpenAIは業界に衝撃を与える方針を発表しました。著作権で保護されたキャラクターやスタイルは、デフォルトで動画生成に使用可能とし、権利者が明示的にオプトアウトしない限り使用されるという「オプトアウト方式」を採用したのです。
実際のテストで、ユーザーはすぐに以下のような著作権キャラクターを生成できることが判明しました。ファミリーガイのキャラクター(ディズニー所有)、キング・オブ・ザ・ヒル(ディズニー所有)、ピーナッツのキャラクター、フリントストーン、サウスパークのキャラクターなどです。ディズニーはすでにオプトアウトしたと報じられていますが、それでもキャラクターが生成されました。
この方式は、権利者に立証責任を転嫁し、「追いかけっこ」型の権利行使を強いるものとして、ハリウッドと創作業界から激しく非難されています。権利者は自分の作品が使われているかを常に監視し、発見するたびに個別に申請しなければなりません。
皮肉なことに、OpenAIは以前オプトアウトシステムに反対し、英国議会での証言で「重大な実装上の課題がある」と主張していました。しかし今や、訴訟を回避するために出力段階でオプトアウトを実装しているのです。この180度の方針転換は、法的リスクへの懸念を反映していると見られています。
Soraがどのようなデータで訓練されたのか、OpenAIは徹底的に秘密にしています。公式に認めている学習データソースは、Shutterstockとのライセンス契約のみです(2023年7月発表)。それ以外については、「公開されている、またはライセンス取得済みのデータ」という曖昧な表現を繰り返すだけで、具体的な詳細は一切開示していません。
この不透明性が、複数の訴訟と業界の不信感を招いています。クリエイターにとって、自分の作品が無断で学習に使われたかどうかを確認する手段がないのです。
ニューヨーク・タイムズが2024年4月に報じたところによると、OpenAIは音声認識モデル「Whisper」を使って100万時間以上のYouTubeビデオをトランスクリプト化したとされます。これは約114年分の動画に相当する膨大な量です。社内スタッフの一部は、YouTubeの利用規約違反を懸念していたといいます。
2024年3月のウォール・ストリート・ジャーナルのインタビューで、当時のCTO(最高技術責任者)ミラ・ムラティが決定的な瞬間を迎えました。WSJ記者が「SoraはYouTube、Instagram、Facebookの動画で訓練されましたか?」と質問したのに対し、ムラティは「実はよくわかりません。もし公開されていて、公開利用可能なものなら...でも、確信が持てません」と答えました。
この回答は、カメラに映った彼女の明らかな不快感とともに、無知か意図的な回避かのいずれかとして広く批判されました。CTOが自社製品の訓練データを知らないというのは、極めて不自然です。YouTubeのCEOニール・モハンは2024年4月、YouTubeデータの使用は「利用規約の明白な違反」だと述べています。
TechCrunchが2024年12月にSoraをテストしたところ、以下のコンテンツを即座に生成できることが判明しました。スーパーマリオブラザーズ風のプラットフォーマー、コール・オブ・デューティ/カウンターストライク風のFPS映像、格闘ゲームのクリップ、そしてMinecraftの動画(OpenAIが2024年2月に認めた)などです。
ワシントン・ポストの2025年9月の調査では、SoraがNetflixオリジナルコンテンツ、TikTokのバイラルクリップ、映画のシーンを模倣できることが実証されました。これらはすべて、著作権で保護されたエンターテインメントコンテンツで訓練された強力な証拠となっています。
重要な点として、2025年10月時点で、Soraを直接標的とした著作権訴訟は提起されていません。しかし、OpenAIは他のAI製品に関連する複数の重大な訴訟に直面しており、これらはSoraにも波及する可能性があります。
ニューヨーク・タイムズ対OpenAI&Microsoft(2023年12月提訴)では、数百万のNYT記事を無断使用したと主張されており、損害賠償は「数十億ドル」規模です。2025年3月、裁判官が主要な請求の却下を拒否し、訴訟は進行中です。NYTは市場代替効果と「虚偽情報」の生成を主張しています。つまり、ChatGPTがNYTの記事の代わりとなり、購読者を奪っているという主張です。
作家組合・個人作家の訴訟(2023年〜)では、ジョージ・R・R・マーティン、ジョン・グリシャム、ジョナサン・フランゼンらが原告となっています。彼らは「海賊版電子書籍リポジトリ」(Library Genesis、Z-Library)からの書籍ダウンロードを主張し、「大規模な組織的窃盗」と非難しています。コア著作権侵害の主張は進行中です。
YouTubeクリエイター集団訴訟(2024年8月)では、100万時間以上のYouTubeビデオをWhisperでトランスクリプト化し、GPT-4の訓練に使用したと主張されています。500万ドル以上の損害賠償を求めており、2024年10月には著作権侵害の主張が追加されました。
インドでの訴訟(2024年11月〜)では、ANI通信社が提訴しました。2025年1月にはインドの出版社連盟(Bloomsbury、Penguin Random House、Rupa)が参加し、2025年2月にはボリウッドの音楽レーベル(T-Series、Saregama、Sony)も参加を求めています。OpenAIは「米国にサーバーがあるためインドの裁判所に管轄権がない」と主張していますが、これは国際的な法的問題の複雑さを示しています。
2025年9月、OpenAIの競合であるAnthropicが、作家の集団訴訟を15億ドルで和解しました。これは作品あたり約3,000ドルに相当し(約50万作品)、AI学習データ著作権訴訟史上最大の回復となりました。
重要なのは、この和解が海賊版作品のみに適用され、合法的に取得されたコンテンツでの訓練はフェアユースとして認められたことです。つまり、裁判所は「海賊版での学習は違法だが、合法的に入手したデータでの学習は合法」という線引きを示したのです。これはAI業界全体にとって重要な先例となります。
知的財産法の弁護士ジョシュア・ワイゲンスバーグは次のように述べています。「ビデオゲームのプレイスルー映像からライセンスなしで訓練している企業は、多くのリスクを冒している。生成AIモデルの訓練には一般的に訓練データのコピーが伴う。もしそのデータがゲームのプレイスルー動画なら、著作権で保護された素材が訓練セットに含まれている可能性は圧倒的に高い」
ゲームには複数の著作権レイヤーが存在します。ゲームコンテンツ(開発者所有)、ユーザー生成動画(プレイヤー所有)、カスタムコンテンツ(ユーザー作成のマップ、MOD)、独自のテクスチャ、アニメーション、キャラクターデザインなどです。弁護士エヴァン・エヴェリストは「裁判所がAIモデルの訓練に著作権責任を認めた場合、これらの著作権保有者はそれぞれ潜在的な原告またはライセンス源となる。そのような動画でAIを訓練する開発者にとって、リスクは指数関数的に増大する」と警告しています。
米国著作権局は2025年1月、Part 2報告書で明確な立場を示しました。「AIシステムを使用して創造性が表現される場合、引き続き保護される。しかし、表現要素が機械によって決定される素材に保護を拡大することは、著作権の憲法上の目標を促進するのではなく損なうことになる」
連邦控訴裁判所は2025年3月、Thaler対Perlmutter訴訟で「人間の著作性は有効な著作権請求の本質的な部分」と確認し、AI単独で生成した作品には著作権がないことを確定しました。
訓練データとフェアユースに関しては、2025年に複数の画期的な判決が出されました。Thomson Reuters対Ross Intelligence(2025年2月11日)では、2025年初の主要AI著作権判決として、裁判所はRossのフェアユース抗弁を却下しました。Rossの使用は「変容的でない」とされ、AIインターフェースで同じ法律文書を返すだけであり、市場代替として直接Westlawと競合すると判断されました。
Bartz対Anthropic(2025年6月、その後9月に和解)では、合法的に取得された書籍での訓練はフェアユースとの画期的判決が出ました。判事は「読者が作家を目指すように、Anthropicのモデルは作品を複製または置き換えるためではなく、急カーブを曲がって異なるものを創造するために訓練された」と述べました。最終的に15億ドルで和解(海賊版作品分のみ)となりました。
Kadrey対Meta(2025年6月)では、Metaに有利な判決が出ました。訓練は十分に変容的であり、著者が具体的な市場損害を証明できなかったため、海賊版訓練データを使用していても、原告が損害を立証できなければフェアユース認定されました。
これらの判決から見えるパターンは、合法的に取得されたデータでの訓練はフェアユースの可能性が高いものの、海賊版データには明確な責任があり、具体的な市場損害の立証が重要な要素となるということです。
EUのAI法(規則2024/1689)の実装タイムラインは段階的です。2024年8月1日に発効し、2025年2月2日に禁止事項とAIリテラシー義務が発効、2025年8月2日にガバナンスルールとGPAI義務が発効します。2026年8月2日に完全適用され、2027年8月2日に高リスクシステムの移行が完了する予定です。
GPAI(汎用AI)モデルの著作権規定(第53条)では、GPAIプロバイダーに厳格な要件が課されています。技術文書の準備・維持、下流プロバイダーへの十分な情報提供、EU著作権法遵守のポリシー採用、訓練データの要約公開などが求められます。
2025年7月のGPAIコードオブプラクティスは、透明性(モデル文書化と下流プロバイダー情報)、著作権(著作権ポリシーの策定と実施、オプトアウトの尊重)、安全性とセキュリティ(システミックリスクモデルのリスク軽減)の3つの柱を定めています。
重要なのは、権利者がオプトアウトできる仕組み(CDSM指令第4条)を尊重しなければならないことです。ただし、モデルを再訓練することが「不均衡な負担」となる場合は柔軟性が認められ、プロバイダーは例外を明確に開示し正当化する必要があります。
日本は2019年1月1日に改正著作権法を施行し、世界で最もAIフレンドリーな国の一つとなりました。著作権法第30条の4は、「著作物に表現された思想又は感情の享受を目的としない利用」については、情報解析を含め、商用でも非商用でも著作権者の許諾なく利用できると定めています。
この規定はAIモデルの訓練を含むあらゆる種類の情報解析を許可し、商用目的でも非商用目的でも適用されます。これは米国のフェアユースやEUのTDM例外よりも広範な権利を提供しています。
文化庁の「AIと著作権に関する考え方について」(2024年3月15日)では、生成AIと著作権の関係を開発・学習段階と生成・利用段階の2段階に分けて整理しました。開発・学習段階では、原則として第30条の4により適法とされています。ただし、「著作権者の利益を不当に害することとなる場合」は例外(同条ただし書)とされます。生成・利用段階では、既存著作物との「類似性」と「依拠性」で侵害を判断します。
AI生成物の著作権については、文化庁の見解として「AIが完全に自動で作成した作品は『著作物』とは認められない」とされています。著作物として認められるには、人間が創作的表現を決定していることが必要で、プロンプトの内容と分量、生成の試行回数、複数生成物からの選択過程など、人間の創造的関与の程度を総合的に考慮します。
2025年8月、日本の主要ニュース出版社がPerplexity AIを提訴しました。これは日本初の大手出版社とAI開発者間の著作権訴訟であり、AI著作権の画期的な判例となることが期待されています。
著作権保護を受けるには、以下が重要です。大幅な編集、加工、選択を加えること。AI出力に対する創造的な配置や構成を行うこと。ボイスオーバー、追加グラフィック、音楽など人間の創造的貢献を明確にすること。そして制作過程を文書化することです。
保護される可能性が高いのは、大幅な編集、加工、選択を加えた作品、AI出力に対する創造的な配置や構成、ボイスオーバー、追加グラフィック、音楽など人間の創造的貢献が明確なもの、制作過程の文書化ができているものです。
保護されない可能性が高いのは、単純なプロンプトのみで生成したもの、最小限の修正のみのもの、「ベストな出力を選択しただけ」のもの、人間の創造的関与が証明できないものです。
一般的に安全な用途は、社内ビジネス利用、プロトタイピングとコンセプト開発、修正を加えたマーケティング素材、ソーシャルメディアコンテンツ、教育コンテンツなどです。
高リスクな用途は、純粋なAI生成コンテンツを著作権登録しようとする試み、商標的文脈での使用、法的レビューなしの高額商用制作、既存の著作権キャラクター/スタイルに類似したコンテンツ、開示なしの専門的クライアント業務などです。
対策としては、生成物の事前チェックを実施し既存著作物との類似性を評価すること、人間の創造的貢献を記録し制作過程を文書化すること、大規模商用プロジェクトにはメディア賠償責任保険を検討すること、使用するAIツールの訓練データ方針を調査すること、自分が権利を持たないコンテンツは入力しないこと、高額プロジェクトには知的財産権弁護士に相談することなどが挙げられます。
権利者として作品を守るには、robots.txt、DRM、メタデータ保護などの技術的保護措置の実装、EUではオプトアウト登録の検討、純粋な訴訟戦略よりも協力的なライセンス機会の追求、集団ライセンス組織への参加(日本ではJASRAC、CODAなど)などが有効です。
権利行使の戦略としては、訴訟を追求する場合は市場損害を文書化し具体的な損害を立証すること、より強力な法的根拠として海賊版訓練データ請求に焦点を当てること、長期訴訟よりも和解を検討すること(Anthropic和解が先例)、AI出力の監視を行い侵害的複製がないか定期的にチェックすることが重要です。
2025〜2026年には、NYT対OpenAI訴訟など主要訴訟の判決が出る可能性があります。EUのAI法が完全施行され(2026年8月)、米国で州レベルの規制が増加し、さらなる大型和解の可能性があります。
2026〜2027年には、控訴裁判所の判決が先例を確立し、国際的な規制の調和(またはさらなる分断)が進み、集団ライセンスモデルが成熟し、AIモデルの「クリーン訓練」認証の出現可能性があります。
技術的発展としては、出力フィルタリングの改善による著作権類似コンテンツの自動検出と遮断、ブロックチェーンベースの出所証明による訓練データ出所追跡、著作権問題を回避するための合成生成データへの移行、訓練データの複製を防ぐより高度なフィルターによる記憶化チェックなどが期待されます。
業界トレンドとしては、HarperCollinsの「書籍1冊5,000ドル」やAnthropicの「作品1点3,000ドル」といった価格設定が業界標準の基盤となる可能性があるライセンス市場の標準化、Googleのように正式リリース前に商用利用を制限して責任露出を制限する企業が増加するプレGA戦略の拡大、EU AI法により訓練データの透明性が競争上の優位性ではなく法的要件となる透明性の強制、そしてオプトアウト方式への反発が強まり、将来的にはオプトイン方式(事前同意)が標準となる可能性があるオプトインへの移行などが予想されます。
Sora 2は動画生成AIの技術的飛躍を代表しますが、その法的基盤は依然として不安定です。ユーザーは生成された出力を「所有」しますが、人間の創造的貢献なしには著作権保護を受けられません。すべての主要法域で人間の著作性が必須要件となっています。海賊版訓練データには明確な法的責任があり(Anthropicの15億ドル和解)、合法的に取得されたデータでの訓練は多くの文脈でフェアユースの可能性が高いです。
不確実な要素として、Soraの完全な訓練データセット(Shutterstock以外)、YouTube、ゲーム、プレミアムコンテンツ使用の正確な範囲、進行中の訴訟の最終的な結果、「十分な人間関与」の正確な閾値、モデルの重み自体が著作権侵害となるか、そしてオプトアウト方式の長期的な持続可能性などが挙げられます。
Sora 2のリリースは、「迅速に動いて物を壊す」時代の終わりを示しています。15億ドルのAnthropicの和解と新たな判例は、AI企業が正当なライセンスフレームワークを実装しなければならないことを示唆しています。一方で、裁判所はイノベーションとクリエイター権利のバランスを取る実用的なフェアユース基準を開発しつつあります。
法的景観は今後2〜3年間不確定な状態が続くでしょうが、説明責任と透明性に向かう方向性は明確です。クリエイターと企業は、この移行期を慎重にナビゲートし、リスクを理解しながらAI技術の可能性を活用する必要があります。最も重要なのは、技術の進歩と創造性の持続可能性の間のバランスを見つけることです。OpenAI自身が認めているように、「生成AI技術は人類の創造的活動の上に構築されている。人間の創造性の持続可能性が損なわれれば、生成AI技術の持続可能な発展も不可能になる」のです。
生成AIの次は“自律する同僚”——AIエージェント実装最前線