インタラクション2012にいったよ(その2)

2012-03-21 06:43

というわけで二日目の感想。

--------

展開ヘルプ
いや、これは面白かった。
やっていることは単純と言えば単純、増井さんらしいといえば増井さんらしい。まず
「ヘルプって使ってます?」
という問から始まる。使ってませんよね。(ここで既に現実を見るところからスタートしているわけだ)

というわけで増井さんの展開ヘルプは、ユーザが入力した内容に、少しでもマッチするルールをわらわらと表示する。このルールは正規表現を用いて手動で設定している。

すると減点主義の査読者は

「ルールベースでは知識の獲得が云々」

とか言ったりするわけだ。しかし増井さんはそうしたツッコミにも当然答えを用意している。プレゼンから引用すれば

「できることを全部リストアップなんてできるんか?と言われるかもしれませんが、それをがんばるんです」

そもそも人間がやりたいことというのはそう多く無いのではないか。これは発表にはなかったことだが、最近あちこちで試みられている

Webをベースにした知識の投稿、共有

を用いれば確かにこうした問題の解決になるかもしれん。でもって自然言語処理は全然つかわないのだそうな。(主な理由は「よくわかんない」からだそうだが)

とここまでで作ったものの説明は終わりなのだが、まだ話は半分であった。以下発表資料から引用する

「大きな話しを聞きたい」 「新しい大きな方向性」が聞きたいんです 「すごいエディタつくりますた」→こういう発表発表されないですよね。 最近論文の題名が長い。増井の論文は短い。

小規模な評価は信用できない。大規模な評価ができたころには意義が終わっている。ページランクの効果が実証されたころには、Googleは天下をとっている。

近年査読を通る論文は「評価つき」ばかりになっているが、それと反比例するように計算機科学の人気は下がっている。ちなみに増井氏の体重は増加しつつある。

評価なし論文はありうるか→Yes 役にたたないシステムよりマシ
ダメな論文査読者が判断するのは無理。ほっておけば消える。

私は直後にこうTweetした。

いや、すばらしい。 というかこの論文を通してくれた事にも感謝。

via: インタラクション2012一般講演発表3まとめ #i2012 - Togetter

これに対して、プログラム委員長の宮下氏からこう返信が来た。

PC委員会として正しい判断ができたと思っています. RT @grgr56: いや、すばらしい。 というかこの論文を通してくれた事にも感謝。 #i2012

via: インタラクション2012一般講演発表3まとめ #i2012 - Togetter

この後何件が質問があった。最初の二人は「前半について」だったが、WISS2012のプログラム委員長五十嵐さんがさっそく後半について質問をする。

「ものすごくがんばって作って評価した論文と、学生が適当に作ったような論文と本当に同じに扱うんですか?」

もっともな疑問である。それに対してたしか増井氏はこう答えたと思う。

「それでいいんです。おもしろいものにはブックマークがつくからいんです」

この会話はここで打ち切りとなったが、二人の意見はそれぞれ耳を傾ける価値がある。
そのあと私はこう書いた。

増井さんと五十嵐さんの意見の斜め上に、クリエイティブな解決案を考えられんかなあ。

たとえば学会に投稿した論文は全部webで公開して、プログラム委員、メンター(謎)、参加者がそれぞれ発表論文を選ぶとかね。

あるいは全部ポスターにして、投票で登壇発表を決めるとか。

話は少しそれる。「フェルマーの最終定理」とか読むと、数学の世界では既にそのようになりつつあるようだ。というか査読自体に異様な時間と人数が必要なので、査読で発表論文を決めるというプロセス自体が成り立たないからなのだけど。

実は計算機科学の世界も既にそうなっているのではないか、というのが増井氏の主張だと思う。

というように議論といろいろな意見を表面化させる興味深い発表であった。こういうのが発表されるから、こうした場の存在価値があるのではなかろうか。

ちなみにこの次のセッションで

「ものすごくがんばっているのはわかるけど、結局何が面白いのかわからない。何に使えるのか作者も考えていない」

ものが発表されたので、増井氏の論点は実に明確になったのではないかな。私はこう書いた。

個人的に、使い道がわからない「こんな入出力つくりました」研究には興味が持てない

--------
ネットワーク将棋支援システム「SAKURA」の感想戦インタフェース

これに対しては以下のような要望を出しておいた。

将棋の番組を見ていると、指している途中でも「ここでこう打つとどうなりますかね」と実際の指し手とは異なる局面が展開することがある。そしていつのまにか元に戻っている。将棋に詳しい人ならあれわかるのだろうけど、素人は混乱する。

でもってそうした分岐を示すのなら、大解像度のディスプレイを使って、展開する局面を全部表示することはできないだろうか。すると

「あそこでこう指していたら、こうなっていたわけです」

という結果図と現在の状況を並べて比較することもできるとおもうのだけど。
ちなみに今のシステムは個々のPCで感想戦をすることを目指しているので大解像度の画面は使えない、とのこと。

-------

身体動作を用いて商品サイズを絞込む検索インタフェースの設計と評価

近年急速に増えた「とにかくKinect使いました」研究、といいきってしまおう。
Kinectの前で、人間が「これくらい」と大きさをジェスチャで指示する。するとシステムがその大きさを読み取って

「じゃあ40インチのテレビ」

というのを表示してくれるのだそうな。

朝のニュースには向いていると思うが、実用性は理解しがたい。そもそも自分がほしいTVの大きさを体で図示できる人間がいるだろうか?しかもそれは正確だろうか?そんなんだったら、巻尺もって測ったほうがずっといいのではないか?

そう聞いたところ

「想定する使い方は、リビングにこれがおいてあって、そのばでユーザが必要な大きさを測り、システムに入力するというものです」

という答だった。それは理解できるが、ユーザに盆踊りをさせるより巻尺使うべきだよなあと思うのだが。

-----------

身体動作の重畳表示による動画上での一体感共有

WISS2011でこのシステムがデモされていた。なんだか画面に棒人間がひょろひょろ表示されている。そして懇親会の会場にシステムが置かれている。

でこれがいったいどうして「一体感共有」につながるのか?今回説明を聞いて作成者の意図だけは理解できた。

人間が踊っている場合、その踊りを棒人間の情報にして遠隔地と共有するというこちらし。画像を直接送る場合と比べて、プライバシーとかまあいろいろあるのだろう。

問題はそれは懇親会会場に置かれても、何が共有できるのだろうか、という点。

ちなみにこのプロジェクトは未踏ソフトにも採択されており、そちらでは

「ユーザがPCの前に置かれたKinectに向い体を動かす。するとニコニコ動画の画面上でアイコンが移動し、それを共有することができる」

システムを作っているのだそうな。ニコ動見ながら、一人のアパートで体を動かす場面は私には想像できない。その上、アイコンが動いて何が面白いのか理解できないし、やっているデモを見ても何のことかわからない。

しかし作成者は違う意見のようだ。理解はできたが、同意はできない研究。熱意だけはわかったけど。

------
履歴分類の提示とアノテーションによるリファインディング支援

以前WI2で聞いた研究の発展版。ブラウザ上でのユーザの閲覧履歴は現在1次元で表示されている。(つまりリストがだらだらでてくる)しかしブラウザ操作を行う際には、いくつかトピックごとに行っているはずだ。例えば研究論文を探した後に、週末見に行く映画の情報を探すとか。

現在は閲覧履歴の情報を真面目につかってグルーピングしているようだが、「トピックの切り替えは検索もしくはブックマークから始まると考えてはどうか」と提案しておいた。実際ポスターに書いてある例ではトピック切り替えはGoogle窓への入力がスタート地点になっていた。

今回発表した人は今年で卒業とのことだが、今後の継続が楽しみな研究である。

-----------

動画共有サイトでの視線共有の試み

WISS2011で見てはいたのだが、内容が理解できなかった研究その2である。デモされていたのはこういうシステム。ニコニコ動画をみているユーザの視線を検知する。複数のユーザからの視線情報を集め、それが重なったところがユーザが面白いと思ったところなのではないか、という前提に基づき一生懸命作っているらしい。

しばらくニコニコ動画の画面をみていたが、これは難しいと感じた。例えば相手が静的なWebページなら、ヒートマップなどを用いてユーザがどこに着目するかを検知することができる(それが面白い記事であるとは全く言えないけど)

しかし動画であれば、視線を動かさなくても動画は勝手に流れてくれる。更に悪いことに、ニコニコ動画だと背景をコメントが流れている。同じ「おもしろいコメント」があったとしても、あるユーザはそれを画面左のほうで着目し、あるユーザは画面右の方で着目するかもしれない。それは異なる位置にある視点だが、同じコメントをポイントしているのだ。そうした解析はどうやるのか。

そう聞いてみたが、あまりその点に関して検討はされていないようだ。そもそもユーザの視点がある位置が「面白いと思っている」位置なのか。ぼんやり見ているのと、食い入るように見るのと差異はあるのか。視線研究の難しさはそこにあると思っているがそうした認識もあまり感じられなかった。

「キーコンポーネントなのだが、とっても難しい」ところを後回しにして、とにかくがんばってしまう研究をみることがままある。このインタラクションでもそうしたものをいくつか見かけた。私が理解できた範囲ではこの発表もそのひとつ。あたかも「超小型軽量の核融合炉」を後回しにして、ガンダムの頭とか手足とか作っているようなものだ。

------------
喜怒哀楽表現のための植物に特化したアクチュエーション手法

植物さんが、喜怒哀楽を現してもいいではないか、ということで細い釣り糸つけて、喜怒哀楽の感情に合わせて植物さんが動く。

気持ちはわからなくもないのだが、植物が「動かされている感」満載。植物だったら風にそよぐといった動きは自然なのだから、そよがせてはどうかとも思ったのだが。

-----------
着ぐるみ演者の表情表出を支援する顔面入力インタフェース

キグルミの中の人の表情を検知し、それに合わせてキグルミの表情が変わる、というシステム。

これも実に「TV向き」だと思うが「中に入っている人は、顔が疲れないんですか」と聞いたら「とっても疲れます」と返答が。私は正直な人が好きです。

-----------
場所や人数の制限を持たない体感型電子玩具 チャンバライザーの提案

子供のチャンバラを安全に行わせようという試み。ビームのないビームサーベルのようなものをもち、子どもが遊ぶ。真ん中からは何かの光線がでて、柄にあるセンサーに当たると反応する。

狙いはとってもわかるのだが、やっぱり「振り回す感」がないとちゃんばらとしては成立しないだろう。しかし子供に遊ばせたところ、別の遊びをしていたとのことなので、チャンバラではない全く別の遊び道具として成立するのかもしれない。