アメリカ民謡研究会・Haniwaインタビュー 合成音声×ポエトリーリーディングで紡がれる、唯一無二の作風の根源に迫る
2007年の初音ミク発売以来、広がり続けているボカロカルチャー。大ヒット曲や国民的アーティストの輩出などによりますます一般化する中、本連載「オルタナティブ・ボカロサウンド探訪」では、そうした観点からはしばしば抜け落ちてしまうオルタナティブな表現を追求するボカロPにインタビュー。各々が持つバックボーンや具体的な制作方法を通して、ボカロカルチャーの音楽シーンとしての一側面を紐解いていく。
第9回に登場するのは「アメリカ民謡研究会」の名義で活動するHaniwa。2014年の活動開始以降、実験的なコンセプトと鋭いサウンドを特徴とするロックナンバーを立て続けに発表。2019年からは一転してローファイ・ヒップホップやエレクトロニカの要素を取り入れた静けさが印象的な楽曲を発表している。またVOICEROIDなどの読み上げソフトを用いたポエトリーリーディングも大きな特徴のひとつ。最近では同期やコントローラーを駆使し、生演奏と合成音声によるライブをVR上で行うなど、より広範囲にわたって活動を展開している。
今回のインタビューではその活動の変遷を追うとともに、大学時代の部活「アメリカ民謡研究会」から受けた影響やポエトリーリーディングという手法を選んだ理由、愛用する合成音声やAIの進歩に対する考え方などについて語ってもらった。
「アメリカ民謡研究会」とは?
音楽遍歴について、まずは幼少期から教えていただけますか。
小さい頃からゲームが好きだったので、最初に好きになった音楽もゲーム音楽でした。『クロノ・トリガー』や『ファイナルファンタジーVII』などのBGMが特に好きでよく聴いていましたね。ポップスにはあまり興味が湧かなくて、特定のアーティストの曲を気に入って聴くということは少なかったです。
活動初期の頃の作風はロックがメインでしたが、そういった音楽にはどのように触れてきたんでしょうか?
高校の頃に友達に誘われてバンドを始めたのがきっかけです。バンドではベースを担当することになったんですが、そのあたりの話が、一番最初に投稿した「ギターと騙され弾いたら四弦」という曲の元になっています(笑)。
アメリカ民謡研究会 – ギターと騙され弾いたら四弦(使用ソフト:VOCALOID 初音ミク)
高校卒業後は愛知県の南山大学に入り、現在の活動名の元となっている「アメリカ民謡研究会」という音楽系の大学公認の部活に所属してベースを弾いていました。「コピーではなく、オリジナルの曲を発表しなくてはいけない」という方針があって、これがすごく大変だったんですが、同時に「オリジナルならどんな音楽でも認める」という文化もあったんです。そこで様々な音楽を自由に作ることができたのが、今の自分の作風に繋がっていると思います。
ロックと言っても、Haniwaさんの作る楽曲にはたとえばポストハードコアやノイズロックなど結構マニアックなジャンルの要素を含んだものが多いと思いますが、そのような音楽は熱心に聴いていたんでしょうか?
何しろそれまでゲーム音楽ぐらいしか聴いていませんでしたから、今おっしゃられたような音楽はほとんど「アメリカ民謡研究会」で教えてもらいました。当時教えてもらった中では、My Discoというバンドが特に衝撃的でしたね。演奏の要素を極限まで減らして、同じフレーズをずっと繰り返すというバンドなんですけど、たとえば5分ぐらいある尺の中、演奏の内容が違うのは数拍だけ、という曲があるんです。ライブを観に行ってこの曲を生で聴いたとき、こんな音楽が許されて良いのかと、自分の中の常識が変わりましたね。
「アメリカ民謡研究会」という名前を自身の活動名に用いた理由を教えてください。
「アメリカ民謡研究会」での経験は僕の音楽のすべてと言っても過言ではなく、ものすごく大切に思っているんです。この部活に所属していなかったら、音楽をこれほど好きになることはありませんでしたし、現在のような音楽を作ることはできませんでした。そこで、この名前を広く知ってもらうために活動名にしました。
また、この部活の名前の由来を知りたいという理由もあります。一説によると学生運動全盛期、「フォーク研究会」を設立したいと大学に申請を出したところ、当時フォークが不良の代名詞のような捉え方をされていたこともあり申請が却下されたので、「アメリカ民謡研究会」という名前にした……という経緯らしい。でも、これも伝説みたいな話で、本当かどうか定かではないんです。僕がこの名前で活動を続けていれば、いつか名前の本当の由来を知っている人と会えるかもしれないなと。
ちなみに、この名前の部活はどうやら全国に複数あるみたいです。違う大学の「アメリカ民謡研究会」の方にも会ったことがあります。
ボカロPを始めたのにはどのようなきっかけがあったのでしょうか?
音楽の投稿を始める以前からニコニコ動画のことがめちゃくちゃ好きで、それこそYouTubeから引っ張ってきた動画ファイルにコメントを付けられるサイトだった時代から観ていました。その後、初音ミクが発売されて。最初の頃はカバー曲や初音ミクのアイドル性に重点をおいた電子的な音楽が多く投稿されていたと思うんですが、そうした音楽をリスナーとして楽しみつつも、自分ではこういう音楽は作れないなと感じていました。
そして2014年頃、『カゲロウプロジェクト』が盛り上がっていた時期にはシーンの中心がバンドサウンドになったというか、ギターとドラムとベースでやる音楽が増えてきて、これだったら自分も作れるんじゃないかなと思ったのが、投稿を始めたきっかけです。
ただ、いざ投稿してみたら全然再生されなくて本当にびっくりしました。『メルト』や『千本桜』などの有名な曲ばかりを聴いていたので、自分も投稿したらまずは10万再生ぐらい簡単に行くかなと思っていたんですが、1作目は1ヶ月経っても100再生に届かないくらいで。一方で、そうやって投稿して初めてボーカロイドという音楽の多様性に気付くこともできて、ここはすごく面白いシーンだなと感じました。
その後、活動初期から2018年頃まではロック中心の音楽性でした。中でもコンセプトに基づいた制作方法や、音楽の構造をメタ的に扱うような楽曲が目を引きます。
歌ものの音楽をほとんど聴いてこなかったこともあって、Aメロ・Bメロがあってサビに入っていくような構成の音楽が全然作れないんです。「アメリカ民謡研究会」で音楽を作るときにも、とにかく自分の好きな音を鳴らしたり、面白そうな音が鳴ったものを「これは音楽です」と言い張って演奏していました。
それでもニコニコ動画に投稿した1曲目は、メロディーや展開を自分なりに意識して作ってみたんです。ただ、投稿したあと改めてボーカロイド音楽を見渡してみたら、本当にあらゆる音楽があったので、それなら「アメリカ民謡研究会」の方式でも大丈夫なんじゃないかと思うようになり、現在に至っています。
ポエトリーリーディングと、小説や詩からの影響
ルーパーなどのエフェクターを使ったり、音割れをファズの一種として使ったり、円周率に従ってみたり、色々な実験的と言える手法を試されていますよね。
大学の部活で僕が組んでいたバンドはベース2人にドラム1人の編成で、ギターとボーカルがいなかったんです。この編成だと高い音を鳴らせないし、ボーカルがいない分マンネリ化しやすいところもあったので、僕のベースにルーパーを使ってフレーズを重ねたり、ベースにあえて細い弦を張って、ピッチシフターやディストーションを使ったりと色々なことをやっていました。そのスタイルをボーカロイドに持ってきた感じです。
「四弦奏者のための、孤独の奏法。」ではルーパーを使ってリアルタイムで楽曲を構築しています。ボカロシーンではライブでの再現性が度外視されやすいので、こういったアプローチは興味深いなと思いました。
ボーカロイドの音楽って電子音楽、エレクトロ系が多いと思うんですけど、あれをどうやって作っているのか最近まで本当に全然わからなかったんです。真似したくて自分の持っている機材で色々と試しているうちに、あんな風になってしまったという感じです。
たとえば「宗教に犯されているのではないか。」は音楽の受容のされ方に対するアンチテーゼをテーマにしているように感じたのですが、そういったテーマ性よりも、手法的にそのときやれることをやっていると言ったほうが近いでしょうか?
そうですね。そのときの自分の実力でできることを全力でやろう、やっているうちに上手くなるだろうという感じです。この曲に関しては「メロディーとか展開って、なくても良いんじゃない?」というテーマですが、作った当時はコードの仕組みとか展開のさせ方とかを全然わかっていなかった上に、メロディーもまともに作れない状態でやっていたので、結果的にこうなってしまったというところもあります。
2014年11月発表の「人間。」からはポエトリーリーディングを取り入れていますが、この経緯について教えてください。
killie、Discharming man、akutagawa、Climb The Mindといったバンドが好きなのですが、共通点として、曲の途中で喋るパートがあるんです。そこにすごく感情を揺さぶれた経験があったので、自分の曲でもやりたいなと思いました。そこで「よいこの発表会。」という曲で初音ミクに少し喋らせてみたんですけど、VOCALOIDというソフトを使って喋らせるのってめちゃくちゃ難しいんですよね。そんなときにたまたまゲーム実況動画でVOICEROIDの結月ゆかりが喋っているのを見かけて、これは音楽にも使えそうだなと思い、いっそ全編を喋りで構成してみようと思って作ったのが「人間。」です。
アメリカ民謡研究会 – 人間。(使用ソフト:VOICEROID 結月ゆかり + VOCALOID 初音ミク)
これ以降、ポエトリーリーディングが楽曲のメインになっていきます。
「人間。」が結構良い感じにできたので、継続して作るようになりました。また、もともとメロディーを作るのに苦手意識があったというのもあります。インストを作ってからそれに合わせた詩を書き始めるのですが、メロディーを意識するとせっかく考えた言葉を削ってメロディーのサイズに合わせなくちゃいけないのがもどかしくて。一方、ポエトリーリーディングにはメロディーこそありませんが、作った言葉をそのまま喋らせることができます。言葉が作る世界の力を重視したいと思っていたので、これ以降はポエトリーリーディングの形式を取ることにしました。
小説や詩からの影響はありますか?
めちゃくちゃあります。言葉選びで特に影響を受けているのが西尾維新で、デビュー作である『クビキリサイクル 青色サヴァンと戯言遣い』は初めて自発的に本屋へ買いに行った小説ですね。この本は言葉遊びが物凄くて、読んでからしばらくは喋り方すら影響を受けたぐらいです(笑)。
また、このシリーズの途中で『罪と罰』が題材になる話が出てくるんですが、それも僕の心に深く刺さってしまったので、原典を知ろうとドストエフスキーを読み始め、ロシア文学にも興味を持つようになりました。ロシアの小説は登場人物がすごく貧乏で、絶望のなかに一筋の希望を見出して、しかし特に状況が好転することもなく終わっていくみたいな話が多いのですが、そういう雰囲気がすごく好きで。僕の音楽の世界観もこういう感覚を反映したものが多い気がしています。
あとは日本の近代文学も好きで、たとえば僕は自分の詩によく当て字をするんですが、これは夏目漱石の影響です。
生活環境の変化からサンプリング主体のスタイルに
2019年頃からはローファイ・ヒップホップ的なサウンドを取り入れています。制作方法が変わったのではないかと推測するのですが、いかがでしょうか?
2019年頃に生活環境の変化があって、ギターが弾けなくなった時期があったんです。これまでギターを中心とした音楽を作ってきたので、それ以外の作り方が全然わからなくて、どうしようかと悩んでしまいました。
そんなときに「雨の日、頭痛とコーヒー」というVOICEROIDを用いたポエトリーリーディングの曲を聴いたんですが、トラックがめちゃくちゃ良かったんですよね。気になって調べてみたら、Spliceの素材を組み合わせて作ったトラックらしいということがわかったんです。それがきっかけでサンプリングという手法を知り、これならギターが弾けなくても音楽を続けられると思って作り始めました。
シロイ・チャウダークラム – 雨の日、頭痛とコーヒー(使用ソフト:VOICEROID 琴葉葵)
その際に参考にしたアーティストはいますか?
この頃はKoganeやyutaka hirasaka、Nujabesの音楽が好きで、インスピレーションを受けていました。
制作手法に変化があった中で、これまでと変わらなかった点はありますか?
そのときにできることを全力でやる、ということは変わらなかったですね。ただ投稿するだけではなく、1曲作るたびにできることがひとつ増えるようにと意識していたと思います。この時期に学んだことは、特に最近の作品に活かせている気がします。
この時期はTwitterを発表の場にされていましたよね。
そうですね。ひとつのループ素材をサンプリングして作曲する手法は展開を作るのが難しくて、結果として曲が短くなってしまうというデメリットがありました。できた曲も大体1分半ほどの長さになって、ちょうどTwitterにすべて投稿できる長さでしたから、Twitterに投稿するだけで良いかなと思っていました。
アナログレコードもこの頃に作られています。
即売会に来たお客さんから「CDの再生機器は持っていないけど、モノとしてほしいので買います」という声を聞くことが以前から結構あって、それなら手に持ったときの特別感もあるし、レコードのほうがむしろ良いなと思っていたんです。この時期にたくさんできたローファイな音楽はレコードにも似合うと思ったので、タイミングも良いと思い実行に移したという感じです。
使用機材と制作手順
制作環境について教えてください。
DAWは最初Cubaseを使っていたんですが、2018年12月の「この音楽は実時間に則って構築されるから、私はその演奏方法の備忘録を作る必要がある。」という曲からはAbleton Liveを使うようになりました。Ableton Liveはそれ自体を楽器のようにも扱えるところが、すごく便利だし楽しいです。
MIDIキーボードはKOMPLETE KONTROLを、パッドコントローラーはNovationのLaunchPad Pro MK3を使っています。また、最近はVRでライブをする機会があるのですが、リアルタイムでたくさんの操作をする必要があるので、フットコントローラーとしてRolandのFC-300も使っています。足でもAbleton Liveが操作できるのはめちゃくちゃ便利ですね。オーディオインターフェイスはRMEのBabyface Pro FSを使っています。
EQやコンプレッサー、ディレイなどはほとんどFabFilterで揃えていますね。最近はoeksoundのsoothe 2も使っています。VOICEROIDが喋っている間、その声の周波数を検出してトラック側の同じ周波数の部分だけを削るということが簡単にできるんですよ。喋り声を際立たせたいときに便利なのですごく気に入っています。
シンセサイザーはほぼSERUMです。他にはNEXUSのプリセットに対してエフェクトを色々かけたものをサンプリングして、Ableton LiveのSimplerで鳴らしたりもしています。
ギターにはIK MultimediaのAmpliTubeを使っていますが、これはVOICEROIDにも使っています。VOICEROIDは高音が硬めな印象で、そのまま使うとキンキンする感じがあるんですが、このプラグインを使うと良い感じに柔らかくなります。一方でVOICEPEAKにはAmplitubeは使わず、EQ、コンプレッサーで調整した後、Valhalla DSP のValhalla VintageVerbを薄くかけたりします。
DAWをAbleton Liveに変えたことによって音楽性に変化はありましたか?
大きな変化はないかもしれません。ただ、Ableton Liveだとサンプリングや音の加工が結構簡単にできるので、電子的な音楽が作りやすくなった印象があります。
音楽を作る際の手順を教えてください。
まずScaler 2というコード進行の提案をしてくれるプラグインで良さそうなコードを探します。良い感じのコードが見つかったら、色々な音源を同時に起動させて音を探しつつ、良い雰囲気になるまで無限に試します。結局未だに音楽理論がよくわかっていないので、いい曲ができるかどうかは運任せという感覚がありますね。
構成的には、イントロから順番に作っていきます。一度ネットの記事を参考にして、まず始めに曲中で一番盛り上がる部分を作って、そこから音の引き算をして周辺を作っていくというやり方を試したこともあるんですが、最初にテンションが上がった後は盛り下がり続けるだけの作業になってしまったんですよね。
詩は、インストが全部できてから考え始めます。インストに合う詩が思いつかなかった場合は、もう一度最初からインストを作るという感じです。
詩は書く際に、使用するボイスライブラリを事前に決めていたりするのでしょうか?
できたインストを聴いてみて、誰に喋らせるのが良いのかを考えます。決まったらたくさんの言葉を喋らせるんですが、良い詩が出てくるかというのは、これも運です。
ローファイ・ヒップホップにはインストのみの曲も多いと思いますが、そこにボーカルを入れることで曲のイメージや表現はどのように変わると考えていますか?
合成音声が喋り出すだけで、明るい雰囲気だった曲が一気に絶望的な曲になったりするようなことが結構あります。個人的にも、明るい雰囲気なのに内容はめちゃくちゃ暗い、といった対比がすごく好きなんです。映画でいえば、キューブリックの『2001年宇宙の旅』や『時計じかけのオレンジ』で、絶望的なシーンに対して不釣り合いに美しい音楽が流れていたり、『ヱヴァンゲリヲン新劇場版:破』でアスカの乗ったエヴァが破壊されていくシーンで「今日の日はさようなら」が流れていたり……合成音声の言葉が入ることで、そうした雰囲気が生み出せるなと感じています。