シリーズ:
Part 1 | Part 2 | Part 3 | Part 4 | Part 5 (本記事・最終回)
これまで見てきたように、NotePerformerは楽譜を読み取り、安定した音楽として再構成する優れた仕組みを持っています。
一方でMelismaは、そこからさらに一歩進み、「音楽がどのように生まれるか」という領域に踏み込もうとしています。
しかし、その過程で見えてくるのは、生成という行為の限界です。
単旋律における時間的な流れや変化のモデル化は、すでに高いレベルに達しています。
ですが、ポリフォニーのように複数の声部が同時に関係し合う音楽においては、単なるデータやパターンの学習だけでは不十分であることが明らかになってきます。
そこでは最終的に、「それが音楽として成立しているかどうか」を判断する何かが必要になります。
そしてそれは、現時点ではやはり人間の聴覚、すなわち「耳」に委ねられています。
生成AIは過去のデータをもとに音楽を作ることはできますが、
その音楽が本当に自然であるか、説得力を持っているかを判断する能力はまだ十分ではありません。
言い換えれば、
「作ること」はできても、「良いと判断すること」はまだ難しいのではないでしょうか。
打ち込みという帰着点
こうして見てくると、最終的に今自分が打ち込みを続けてきていることは、むしろ自然な流れなんでしょうね。
打ち込みという作業は、単に音を並べることでは無いんですね。そこには、次のような「生成」と「判断」の往復が常に含まれています。
- 音の選択
- 声部のバランス
- 時間的な揺れ
- 微細な違和感の修正
つまり打ち込みとは、音楽を作ると同時に、それを成立させていくプロセスそのものです。
AIがまだ到達していない「評価する力」を、人間は無意識のうちに使いながら音楽を形にしているとも言えるでしょう。
終わりに
今回の一連の考察を通じて見えてきたのは、
音楽とは単なるデータや構造ではなく、「時間の中で関係が変化していくもの」であり、
その成立には必ず「判断」という要素が関わっているということでした。
生成AIは確かに新しい可能性を示しています。
しかし同時に、音楽における人間の役割がどこにあるのかも、よりはっきりと浮かび上がらせてくれます。
そして少なくとも現時点では、
音楽が本当に音楽として成立する場所は、
人が聴き、考え、手を入れていくその過程の中にあるのだと思います。
英語版はこちら