By grfx_guru
人間は音楽を聴いて「この曲はバッハの作曲だな」や
「このフレーズはモーツァルトに似ている」といった分析を
行うことが可能です。
その際には脳の中で音の高さや長さを分析して自分の記憶と照合して
……という処理が行われているわけですが、
コンピューターにも同様の能力を可能にさせるための
詳細なデータセットが公開されました。
What makes Bach sound like Bach? New dataset teaches algorithms classical music | UW Today
http://www.washington.edu/news/2016/11/30/what-makes-bach-sound-like-bach-new-dataset-teaches-algorithms-classical-music/
2016年11月、アメリカ・ワシントン大学の研究チームが
クラッシック音楽を解析した膨大なデータセット
「MusicNet」を公表しました。
このデータセットは330曲に及ぶライセンスフリーの音源を
解析したもので、演奏されている全ての音の音程や発音/終音した
タイミングなどを、「◯分△△秒から××秒まで『ラ』の音が鳴っている」
という非常に細かいレベルでデータ化することに成功しています。
その結果、音のデータの数は100万個以上にものぼっているとのこと。
そのイメージ例がムービーで公開されています。
音源として与えられたベートーヴェンの
「弦楽四重奏曲第11番」の一部を抜き出したもので、
音の高さや長さ、さらには演奏されている楽器が詳細なデータに
変換されています。
いわば、実際に鳴っている音を元に極めて詳細な楽譜が
採譜されたデータということになるわけですが、
このデータセットをもとにAIに「音楽」を学習させ、
クラッシック音楽を再構築させる試みが行われています。
ワシントン大学のSham Kakade准教授は
「私たちは、高いレベルで『なぜ音楽が耳を惹きつけるのか』
ということ、そして、作曲された楽曲をいかにしてより良く理解するか、
または何が『バッハらしさ』につながっているのかを理解する、
といったことに関心があります」と語っており、
MusicNetが可能にすることについて
「いくつもの方面から、機械学習と作曲の分野でMusicNetが
創造性と実際の制作における利点を発揮することを期待しています」と語っています。
これまで、音楽の分析は人の耳と手によって進められることが多かったのですが、
MusicNetは膨大なデータをもとにそれらの行為をほぼ自動で
行えるようにした点が今後における大きなアドバンテージになるとのこと。
これは、写真の中身をビッグデータとAIによって解析し、
写っている物や人物を分析できる「ImageNet」と同じようなことを
音楽の世界でも実現しようとする試みといえます。
研究チームが取得したデータセットは以下のサイトで公開されており、
誰でもダウンロードできるようになっています。
Getting Started
http://homes.cs.washington.edu/~thickstn/start.html
また、同研究チームによる論文は査読中の段階ですが、
プレプリントサーバの「arXiv」で閲覧することが可能です。
[1611.09827] Learning Features of Music from Scratch
https://arxiv.org/abs/1611.09827