「ー脳の情報からAIを使って『音楽』を再現する」。そんなSFのような世界が現実となりつつある。そんな技術を作り出した大阪大学の髙木優助教に話を聞いた。
今回の技術を作り出した大阪大学の髙木助教とGoogleスイスらの研究チームが利用したのは、テキストから音楽を作成するAI、『MusicLM』というプログラムだ
「人の脳活動を『MusicLM』の脳活動に翻訳し、驚異的な音楽生成能力を使って、『人が今どんなものを聞いているのか』を生成することができる。
AIに人の脳活動を翻訳してもらえれば、絵を人の脳から作り出したのと同じ要領で音楽を作りだせるのではないかと。非常にシンプルなアイデアで進めた」(以下、全て髙木助教)。
fMRIという脳のどの領域が活動しているかを計測できる機械を用いて、音楽を聴いている時の脳活動を計測。脳の情報をAIが読み取れる情報に変換し、音楽生成AIが再現するという手順だ。
実際にロック調の音楽を聴いた脳情報から再構築された音楽を聴いてみると、ギターやベース、パーカッションはもちろんボーカルまで再現していた。さらには、クラシック調やブルース調などの音楽まで、様々なジャンルの再現を実現した。
まだまだ完璧とは言えないが、SFのように脳内の情報から画像に続き音楽も具現化できる技術となった。この先、人間の生活が大きく変わってくる可能性はあるのだろうか。
「何も音楽を聞いていない、何も考えていない時でも、その人の脳の気分に合わせた音楽を生成・提案してもらう。そんなことを考えている」
(『ABEMAヒルズ』より)