シリーズ:
Part 1 | Part 2 | Part 3 | Part 4 | Part 5 (本記事・最終回)
現在の生成の限界
これまで見てきたように、NotePerformer [1] は楽譜を読み取り、安定した音楽として再構成する優れた仕組みを持っています。
一方でMelisma [2] は、そこからさらに一歩進み、「音楽がどのように生まれるか」という領域に踏み込もうとしているように見えます。
[1]: NotePerformer
[2]: Melisma
しかし、その過程で浮かび上がってくるのは、生成の限界です。
単旋律における時間的な流れや変化のモデル化は、すでに高いレベルに達しています。
一方で、複数の声部が同時に関係し合う音楽、たとえばコーラスや多声的な器楽になると、状況は大きく異なってきます。
Melismaのコーラスを聴いてみると、単純に同じ旋律を重ねたものとは少し違う印象を受けました。
完全に一致するのではなく、わずかな時間や音程のズレが感じられ、それが全体として一つのまとまりを生んでいるようにも聞こえます。
こうした性質は、拡散モデルのように完全な一致を前提としない生成プロセスと関係しているのかもしれません。
このようなポリフォニーの領域では、各声部のバランスや独立性、そして相互の関係が常に変化し続けるため、単純な規則やパターンだけでは音楽として成立させることが難しくなります。
そのため、最終的には「それが音楽として成立しているかどうか」を判断する何かが必要になります。そして、現時点ではやはり人間の聴覚、すなわち「耳」に委ねられています。
生成AIは過去のデータをもとに音楽を作ることはできますが、
その音楽が本当に自然であるか、説得力を持っているかを判断する能力はまだ十分ではありません。
言い換えれば、
「作ること」はできても、「良いと判断すること」はまだ難しいのではないでしょうか。
打ち込みという帰着点
こうして見てくると、最終的に今自分が打ち込みを続けてきていることは、むしろ自然な流れなんでしょうね。
打ち込みという作業は、単に音を並べることでは無いんですね。そこには、次のような「生成」と「判断」の往復が常に含まれています。
- 音の選択
- 声部のバランス
- 時間的な揺れ
- 微細な違和感の修正
つまり打ち込みとは、音楽を作ると同時に、それを成立させていくプロセスそのものです。
AIがまだ到達していない「評価する力」を、人間は無意識のうちに使いながら音楽を形にしているとも言えるでしょう。
終わりに
今回の一連の考察を通じて見えてきたのは、
音楽とは単なるデータや構造ではなく、「時間の中で関係が変化していくもの」であり、
その成立には必ず「判断」という要素が関わっているということでした。
生成AIは確かに新しい可能性を示しています。
しかし同時に、音楽における人間の役割がどこにあるのかも、よりはっきりと浮かび上がらせてくれます。
そして少なくとも現時点では、
音楽が本当に音楽として成立する場所は、
人が聴き、考え、手を入れていくその過程の中にあるのだと思います。
英語版はこちら