去年末の大晦日に放送された紅白歌合戦で放映された企画「AI美空ひばり」についていろんなところで炎上しているようですね。
年が明けてしばらく経ちましたが、山下達郎さんがあの企画について「冒とくだ」という発言をされたようで、改めて記事になっていました。
AI美空ひばり by YAMAHA
AI美空ひばりで使われた技術については(こちらの)Arbanの記事でも取り上げられているのですが、YAMAHAの開発した『VOCALOID:AI(ボーカロイド:エーアイ)』という音響技術をもとに、美空ひばりさんの歌い方の特徴をディープラーニングで解析して、新しい曲を歌わせるという試みのよう
この記事の中で
「こうした技術は一歩間違えれば故人への冒涜にもなりかねない」
とあらかじめ懸念されていた事態が、まさに起こってしまったということですね。
記事では続けて
「亡くなった人を扱うということは、その本人だけでなく遺族や関係者たちの十分な解と配慮が必要なのだ。」
とYAMAHAの技術者の方がコメントされているのですが、
「遺族や関係者が良いと言ったら良いの?」
「ファンの理解は得られていないんじゃないの?」
「故人の意思なんてわからないでしょ」
と思う人は当然出てくることは想像できたわけで、見込みが甘かったというか、ポジティブな雰囲気で批判を押し切ろうとしたけどうまくいかなかったのかなと思います。
ケニー・G / ナタリー・コール / トニー・ベネット
AI美空ひばりとは直接関係ないのですが、少し前のweb記事でケニー・Gの記事が載っており、そこでケニー・Gがルイ・アームストロングの「What a wonderful world」に自身のサックスをオーバーダビングして”デュエット”を行い、ケニー・Gに対してパット・メセニーが「ルイの音楽に対する冒涜だ」とケニー・Gをかなり激しく非難するという出来事がありました。(こちら)
この記事内でメセニーが触れているように、ジャズの世界では、ナタリー・コールが父親のナット・キング・コールと共演した「Unforgettable」や、トニー・ベネットがビリー・ホリディと共演した「Tony Bennett on Holiday」などの例があります。
こういう例もすべて、過去の(故人の)音源をあとから違った意味付けで再生産していると言えるので、そういう意味ではAI美空ひばりと同じような例なのかなと。
こういう音源を聴いて違和感を感じる人は多いと思うのですが、どういうところでモヤモヤするのか、どこまで許容できるのは人によって濃淡があるようです。
「どれも全部、故人の功績を利用したカネ儲けだ」と全部否定する人もいるでしょう。
「作品へのリスペクトがあればOK」なら、ケニー・GはOK?
「親族が了解しているなら良い」というなら、ナタリー・コールもAI美空ひばりもOK?
などなど。
パット・メセニーがケニー・Gを非難するのは、(明言していないけど)音楽的なクオリティの話のような気がします。
要はケニー・Gはルイ・アームストロングとデュエットするには値しない、と考えているように読めますね。
音楽のシンギュラリティ ー AI技術が生身の人間を超える日
Arbanの記事にあるように、YAMAHAのディープ・ラーニングを使った最新の技術では、グレン・グールドのピアノ演奏を学習し、コンサートを披露できるようです。
ビル・エヴァンスなどの亡くなったプレーヤーの演奏にも応用できる可能性もあるとも。
つまり「ビル・エヴァンスに生前録音したことのないスタンダード・ナンバーを弾いてもらう」というジャズファンの興味を引くようなこともできるし、それは同時に「ビル・エヴァンスにレディオヘッドの曲を全曲弾いてもらう」ことだって、「ビル・エヴァンスにAKBの曲を全曲弾いてもらう」ことだってできる訳です。
AI美空ひばりにも言えることですが、こういった技術が過去の偉大なミュージシャンをいかに正確に模倣するか、に使われているというのは何かテクノロジーの使い方のベクトルが間違っているようにも思います。
そしてそれは単純にマーケティング的な意味合い(ようはカネのため)なのだと思いますけど。
どれだけ実在のミュージシャンの演奏に近づけても、それはコピーであってオリジナルを超えていくことはあり得ないわけですし。
カリフォルニア大学のDavid Copeが研究により生み出したアルゴリズミック・コンポジションのソフトウェア「Emily Howell」はクラシックの作曲家の楽譜を解析し、たとえば「モーツァルト風」「バッハ風」の曲を、それこそ何千、何万と生産することができたという話です。
これはもう10年以上前の話ですが、旋律や和声といった面では、すでにコンピューターによって(特にクラシックの分野で)高いレベルの音楽を産みだせるところまで来ていました。
David Copeの研究は、後に音楽のオリジナリティの重要性を声高に叫ぶ音楽ポリスたちによって批判され、中止に追い込まれてしまったそうです。
音楽は人間の手によるアート表現であり、機械による表現など論外、ということだったのでしょう。
こういう世間の態度がなければ、今頃は、コンピューターよる人間が作った以上に素晴らしい音楽が産まれていたかもしれません。
今回のAI美空ひばりの批判を見ると、世間のテクノロジーと音楽に対する態度は当時とまるで変っていないんだな、と思います。
オリジナルをそのままの形で留めておくことへの執着や、特に音楽にアーティストの生き様やメッセージを過剰に投影してしまうところもそのままです。
過去の演奏をディープ・ラーニングで解析するという試みは、技術的には興味深いと思いますし、そこから産みだされる音楽を聴いてみたいとも思います。
ただYAMAHAの人はおそらく
「テクノロジーから生み出された誰のものでもない音楽なんて誰も聴いてくれない」
と考えて、その技術をAI美空ひばりのようなプロジェクトに向けていったのでしょうし、批判を受けるかもしれないコンセプトでも相手にされないよりずっとマシ、と思ったのでしょう。
けっきょくいまの音楽リスナーの態度がAI美空ひばりを生んだとも言えると思いますけどね。