iPhone×Wiiリモコン=ユーザインターフェースとしてのセンサー

昨日の、日本人が発売と同時にiPhoneを携帯電話として使う方法を思いついた!という一発ネタ的エントリーを、id:wetfootdogさんのまとめ記事で取りあげていただいた。(ネタバレへの配慮、ありがとうございます)

そこ経由で、まんぷく::日記 - まん延するニセiPhoneというエントリーを見て考えたこと。

バイスの小型化によって、入出力のレンジが細くなることは、昔からの永遠の課題である。iPhoneMac OS X を搭載することは、その問題が先鋭化してくることの象徴だ。

メモリもCPUも、フル機能のUNIXに先進的なグラフィックをサポートするのに充分なレベルになっている。しかし物理的な形状に縛られるユーザーインターフェースは、そのような富豪的進化は望めない。

具体的には、ボタンを取るか表示エリアを取るかというジレンマがどうしても残る。iPhoneの場合は、ボタンを捨てて広い表示エリアを選択したわけだが、そのことによって、出力が豪華になった分、入力が細くなってしまった。上記まとめエントリーを見ても、iPhoneはタッチタイピングできるか?という問題は、たださんをはじめ、多くの人が指摘していた。

しかし、iPhoneに搭載されている各種センサーを入力機器としてとらえることで、このジレンマを解決することが可能になるのではないか。

ほかにもセンサがいろいろついていて、面白くかつ地味に便利。

まず、周囲の明るさに応じて明るさ感知センサが働き、液晶の明度を自動調節する。

ほかに、iPhoneを縦に持つと縦画面に、横に持つと横画面に自動的に切り替わる。これは加速度センサの仕事。

もうひとつ、iPhone本体を耳に近づけると近接センサがそれを感じ取り、タッチパネルが消えると同時に一時的に機能しなくなる。

現段階では、センサーが主体となって、センサーが自分が置かれている状態を勝手に判定して、何らかの反応をする形になっているようだ。しかし、これらは全部入力機器と見ることができる。

たとえば、「ホームボタンを押す」という操作にしても、手を(近接センサに)近づけて押すか離して押すか、あるいは、手を上から覆う(明るさ感知センサの反応を起こす)か下から近づけるか、手をiPhoneに近づけてから押すか、iPhoneを手に近づけて(加速度を起こして)から押すか、等によって、数通りの意味を与えることができる。

加速度センサがあれば、マウスジェスチャーのように、マウスでなくiPhone自体を動かすことで、さまざまなジェスチャが可能になるだろう。また、明るさ感知センサや近接センサやカメラを、筐体の上下左右に複数設置することで、筐体を取りまく3次元空間全体の中の手の動きを把握することができる。左手にiPhoneを持って右手で指揮者のようにジェスチャによってiPhoneを「指揮」することも可能になるかもしれない。

このようにセンサーを活用して入力の帯域を太くできる可能性を考慮すると、筐体の表面は入力でなく出力に割り当てるのが正解だということになる。

ていうか、iPhoneWiiリモコンを掛けあわせたようなものが、いつかスマートフォンの決定版になるということ?