あのね、聞いて
2016-06-07 06:52
小さい子供は、親がいやになるくらいあれこれの話を聞かせてくれることがある。誰に教えられたわけでも命じられたわけでもないのに。「物語を語る」ことが人間の進化においてどういう役割を果たしたのか、とかきっと誰かが研究しているのだろう。
いきなり何を言い出したかといえばこれである。
Googleが米国時間6月1日、90秒のピアノの旋律(mp3)を公開した。GoogleがMoogfestイベントで先週発表した、人工知能から独自の音楽や絵画を作り出す「Project Magenta」の一環として、機械学習技術が生み出した初めての芸術作品だ。
聞くとわかるが、ひどいできである。高校の音楽の授業で私が作った曲よりひどい。理由はこんなことらしい。
Project Magentaの難しい課題の1つは、アートを生み出すととに、人の心をつかむストーリーを語ることだとEck氏は言う。
そもそもストーリーとはなんなのか。音楽の「曲調」とかになるともっと曖昧模糊としてさっぱりわからない。そもそも我々はどうやってメロディを認識しているのだ。そもそもメロディってなんなんだ?ディープラーニングでなんでも解決するんでしょうかね。
----
人工知能はいまバブルの状態にある。いつまでも勉強しないお祭り好きが「シンギュラリティだあ!」とわめくのも毎度のお約束。世の中に「驚き」を増やす一つの方法は、視野を狭くし、思考を浅くし、脊髄反射で行動すること。
バブルの楽しさは、それに反応する様子をみて相手の頭の中身がある程度わかることにある。私が死ぬ前にもう一度から騒ぎを見られるかな?
ちなみに
先日行われたCHIでは多数の論文が発表された。タイトルを検索してみたが、Deep Learningという言葉は一つもなかった。
「Deep Learningを使ったらチャットボットとの会話時間が有意に増えた!」
とか発表する人がいてもいいのに。