MIDIの次にあるもの。

いまは、サンプラー全盛だが、一昔前まで、コンピュータで音楽をやる(DTM: DeskTop Music)といえば、MIDIが主流だった。MIDIの音は今聞くとしょぼく聞こえる。技術的、コスト的な問題で、サンプリング音源の質が低いという理由もあるが、なによりも音を出すための情報が少なすぎるというところにあると思う。MIDIでは、ノートオン/ノートオフという信号で、音の始まりと終わりを示す。一音の間には、ピッチベンド(音程の変化)やエクスプレッション(音量の変化)で表情をつけることもできる。が、基本的にはそれだけだ。音色の変化はかなり乏しい。かつてシンセが電子オルガンと呼ばれていたように、オルガンならこれでもかまわないが、他の楽器にはなじまない。さらに、ピアノですら、キーを押していたり、ペダルを踏んでいるときの共鳴すら再現されない。表情をつける情報を、ユーザがすべてコントロールしなければならないのも問題だ。よほど慣れた人間でないと、コントロールは難しいし、なにより煩雑だ。こうした問題を解決するためには、楽器別にパラメータを用意し、発音のプロセスも楽器別に用意する。そして、それらを自動でコントロールするシステムを作ればよい。ヴァイオリンを例にみてみよう。ヴァイオリンで一音弾くときのパラメータとしては、以下のものが考えられる。弦(G線、D線、A線、E線)、指の押さえ方(角度、強さ、速度)、ヴィブラート(連続的にデータが必要)、運弓(元弓〜先弓、速さ、圧力、角度、指板寄り〜駒寄り、ダウン/アップ)・・・予想はしていたが、多い。人間の奏者は優秀である。しかし、これだけのパラメータがあれば、電子的に合成した音でも、相当なクオリティを得られるはずである。(なお、楽器や、弦、弓の特性は、これらの演奏情報とは別に、事前に設定すべきである。)そして、これをすべて人間が入力するのは全く非現実的なので、自動的にコントロールするシステムが必要である(これはシーケンサなどが実装する)。ここで、システムを「素直な演奏者」とし、ユーザを「指揮者」と考えよう。システムは、楽譜を読み、まっとうな演奏を行う。この演奏を聴いたユーザは、「もっとアタック強く」「ヴィブラート多めで」などの要求をシステムに伝え、システムが調整する。このような方式をとれば、「職人」より「音楽家」に近い技術で、よりよい演奏を得られるだろう。学習機能や、演奏者の「クセ」を出すようなシステムもあるとおもしろい。「素直な演奏」を行うための、理論的基盤は、筑波大学で研究している「Psyche」というシステムが使えそうだ。詳しくは下記の参考文献を参照されたい。これが実現すれば、DTMも新しい段階に入るだろう。誰か、やらないかな(笑)。参考文献:

演奏を科学する—人工知能が創る音楽創らない音楽 演奏を科学する—人工知能が創る音楽創らない音楽
五十嵐 滋 (2000/10)
ヤマハミュージックメディア この商品の詳細を見る
> 追記:URLみたら、記念すべき100件目の記事でした。以外と続くもんだな、と自分で感心。時間があれば、カテゴライズとか見直したいけど、まあブログなんで、常にβ版というのもアリかと。