AIが学んだ曲は誰のもの?音楽生成モデルのデータ帰属 — Large-Scale Training Data Attribution for Music Generative Models via Unlearning
Choi, Woosung, Junghyun Koo, Kin Wai Cheuk, Joan Serrà, Marco A. Martínez-Ramírez, Yukara Ikemiya, Naoki Murata, Yuhta Takida, Wei-Hsiang Liao, and Yuki Mitsufuji. 2025. "Large-Scale Training Data Attribution for Music Generative Models via Unlearning." arXiv preprint arXiv:2506.18312.
音楽生成AIが学習データのどの曲から影響を受けたのかを特定する新しい手法を開発
@June 18, 2024 9:30 PM (GMT+1)
Overview
- 音楽生成AIが学習データのどの曲から影響を受けたのかを特定する新しい手法を開発しました。
- 『アンラーニング』という技術を使うことで、大規模データセットでも誰のデータが生成結果に貢献したかを追跡できるようになります。
AIが生成した音楽が流行する時代、元の作曲家や演奏家がちゃんと認識されていないという問題があります。この研究は、生成AIが『誰の曲を参考にしたのか』を明確にする仕組みを作ることで、アーティストの権利保護と倫理的なAI利用の実現を目指しています。大規模な学習データを扱う音楽生成の分野では、この種の追跡が非常に難しかったため、挑戦的な取り組みです。

Abstract
This paper explores the use of unlearning methods for training data attribution (TDA) in music generative models trained on large-scale datasets. TDA aims to identify which specific training data points contributed the most to the generation of a particular output from a specific model. This is crucial in the context of AI-generated music, where proper recognition and credit for original artists are generally overlooked. By enabling white-box attribution, our work supports a fairer system for acknowledging artistic contributions and addresses pressing concerns related to AI ethics and copyright. We apply unlearning-based attribution to a text-to-music diffusion model trained on a large-scale dataset and investigate its feasibility and behavior in this setting. To validate the method, we perform a grid search over different hyperparameter configurations and quantitatively evaluate the consistency of the unlearning approach. We then compare attribution patterns from unlearning with non-counterfactual approaches. Our findings suggest that unlearning-based approaches can be effectively adapted to music generative models, introducing large-scale TDA to this domain and paving the way for more ethical and accountable AI systems for music creation.
Motivation
- AI生成音楽が増える中で、学習に使われたアーティストの元の曲が適切に認識・補償されていないという課題があります。
- これまでのデータ帰属手法は小規模データセットでしか機能せず、実用的な音楽生成モデルのような大規模設定には対応していませんでした。
- AIの透明性と倫理性を高めるために、生成結果と学習データの関係を科学的に明らかにする必要がありました。
Method
アンラーニングという技術を使います。これは、特定の学習データを『学んでいなかったことにする』ようにモデルを調整し、その前後で生成される音楽がどう変わるかを観察する手法です。テキスト指示から音楽を生成する拡散モデルに対して、このアンラーニング手法を適用し、大規模データセットでの実行可能性と安定性を検証しました。
- text-to-music拡散モデル(テキスト指示から音楽を生成するAI)を大規模音楽データセットで学習させ、様々なハイパーパラメータ条件でアンラーニングを実施しました。
- 特定の学習曲をアンラーニングした前後で、生成音楽の違いを定量的に測定し、その一貫性を評価しました。
- アンラーニング法による帰属結果と、従来の非反事実的手法(実際のデータ除去などを伴わない方法)による結果を比較しました。
Results
アンラーニングベースの手法が大規模な音楽生成モデルに実装でき、学習データの貢献を安定して追跡できることが確認されました。
- 複数のハイパーパラメータ設定での網羅的な探索により、アンラーニング手法の安定性と再現性が実証されました。
- アンラーニング法による帰属パターンは、従来の非反事実的手法との比較で、より信頼度の高い結果を示しました。
- 大規模データセット(具体的な曲数は記載なし)でも実用的な計算時間で実行可能であることが確認されました。
Further Thoughts
- 音楽制作企業や研究機関は、生成モデルの学習データとの関係を明確にでき、著作権問題への対応や透明性の向上に役立てられます。
- 元のアーティストが自分の曲がAI学習に使われたことを知り、適切な認識や補償を得られる仕組みが構築可能になります。
- 今後の課題としては、帰属結果の因果性をさらに厳密に検証すること、大規模商用モデルでの実装効率の改善、そして実際の法的・経済的枠組みとの連携が必要です。