AI生成を活用した音楽制作は、あと10年ほどで一般化すると考えています。
木下智也さんのこちらのポストをきっかけに、現在私が音楽生成AIについて考えていることをまとめました。長文になったため、AIによる校正を行ったものをnoteにも載せておきます。
私個人としては、AI生成を活用した音楽制作は、あと10年ほどで一般化すると考えています。少し長くなりますが、ここで私自身が経験してきたDAWの普及過程についてお話ししたいと思います。
私が同人音楽即売会「M3」に初めて出展した2000年頃、周囲ではまだMIDIが主流で、多くの方がRoland SC-88ProやKORG TRINITYを使用していました。ミックスは基本的に音源内で完結(CCやSysExを用いてリバーブやディレイをわずかに加える程度)。ちょうどwaves L2がリリースされ、個人制作でもマスタリングが注目され始めた頃です。バンド制作勢は、HDDの16トラックMTRを駆使して奮闘していました。
そんな中、サンプリングミュージックに強い影響を受けていた私は、DAWでのオーディオ編集を主体とした作品を発表し、界隈ではそこそこ話題になりました。「MIDIでの手打ち」ではない作品に対する批判もありましたが、その後10年ほどでDAWを使ったオーディオ編集は一般化し、MIDIでハードウェアPCM音源を制御する制作手法は次第に陳腐化していきました。
AI生成をめぐる状況は、当時とよく似ていると感じます。KREVA『Project K』のように、AI生成を制作に取り入れるアーティストも出てきています。おそらく、数年以内にはより大胆にAI生成を活用した、エポックメイキングな作品が登場することでしょう。
そして、そうした作品に憧れ影響を受けた次世代の制作者たちが現れるはずです。その頃には、AI生成を使用することが「最先端の制作手法」から次第に一般化し、「使って当然のもの」となっているのではないでしょうか。
サンプリングやオーディオ編集の話を持ち出さなくても、日本にはもっと身近な例があることを思い出しました。
今や日本の音楽シーンを代表する存在となったVOCALOID。
2004年に日本語対応の初のVOCALOID「MEIKO」が発売された当初、使用していたのは一部の好事家のみで、ほとんどの音楽制作者は見向きもしませんでした。それどころか、「聴くに耐えない」「あんなものは音楽じゃない」「機械が歌うには早すぎた」といった辛辣な意見も多く、私自身もM3で実際に使用した作品を聴かせてもらい、「面白いけれど、音楽として聴くにはしんどいなぁ」と感じたことを覚えています。
しかし、2007年8月に「初音ミク」が発売されると、状況は一変します。同年12月にはryoさんの「メルト」が発表され、「メルトショック」と呼ばれる現象を引き起こしました。そして、その楽曲を生み出したryoさんがsupercellとしてメジャーデビューを果たしたのが2009年――MEIKOの発売からわずか5年後のことでした。
音楽生成AIのポテンシャルがどこまで広がるのか、私には計り知れません。しかし、少なくとも新たな音楽のムーブメントを生み出す可能性は十分にあると感じています。
ちなみに、商業作品の劇伴としてはたぶん日本で初めてAI生成を使用した、われわれ新音楽制作工房の次回劇伴作がもうすぐ公開になります!今回も一部でAI生成を使用してますので、ご興味のあるかたは是非(宣伝) https://t.co/GRe58IPwRm
— Hizuru Saito@新音楽制作工房 (@Hizuru_Saito) March 27, 2025
ちなみに、商業作品の劇伴としてはおそらく日本で初めてAI生成を使用した、われわれ新音楽制作工房の次回劇伴作品がもうすぐ公開されます!今回も一部でAI生成を取り入れていますので、ご興味のある方はぜひご覧ください。(宣伝)
先述した、日本初と思われるAI生成による劇伴は、大野格さんの「AI制作による二つの弦楽四重奏の同時演奏」です。大野さんは、Max for Liveを用いて独自のAI学習環境を構築しており、Stable Audioが話題になる以前からAI生成による楽曲制作に取り組んでいました。
この曲については、以下の記事で菊地成孔代表が解説されています。


コメント