先日の茂木先生の話の続き。
音を視覚化するというプロジェクトはあちこちでやっている。
先日のmonalisaは視覚を音化するというプロジェクトだった。
「楽譜ってのはさ、音を視覚化したもの、とも言えますね」
の一言からイメージが広がった。
ネットとかコンピューティングの持つ可能性のひとつとしてこの時代の楽譜というものがある。
音楽ソフトはそういうものだ、とも言えるのだが楽譜に変わる可視化はできていない。
ガレージバンドのようなシンプルなソフトでも視覚的にあれを観て音を再現できるかといえば難しい。
PCネットワーク・コンピューティングには動的な存在として音を視覚化する可能性。
デッドボディとしての音ではなくライブな生き物としての音をそこに表すという可能性があるように思う。
生物的な存在として作品を定位する、みたいな単純なアプローチでいいのかどうかはまだわからないが感じとしては「考えるコンピュータ」なモードを作品の格納時に組み込む、のはありだと思っている。
Googleは「人エンジン」を変則的に検索の領域に組み込むことで有効なサービスを生み出した。が、まだあれらはフランケンなノリであって、人ネイティブなエンジンにはたどり着けていない。
ここに手を付けたいと思っている。
コメント