あなたの代わりに検索します

先の記事でも触れていることだが、自分でweb検索行為をしなくなった世界を想像してみる。

web検索そのものは必要だけれど、自ら手を動かしてweb検索することはしない。 また、人工知能アシスタントに何を検索してくださいとは依頼することもない。 伝えるくらいなら、そのまま検索したほうが早いからだ。


散歩している時に、ふとどこかの庭先で咲いている花の名前を知りたいと思ったとする。 おもむろにポケットからデバイスを取り出したら、既にその花の画像検索結果が表示されている。


これを実現するためには、視線検出とカメラとオブジェクト認識と検索が連携して常時動作していなければならないので、イマイチ現実味がない。

アプリを立ち上げ、カメラを向け、開始ボタンを押すとオブジェクト認識が開始されるくらいなら既に存在しているだろう。


誰かと会話をしている時に、手元にあるデバイスには、常に会話から拾い上げたキーワードとその検索結果が表示されている。 会話内容に合わせて更新されていく画面を見ながら、わからないことで話が止まったりすることもなく話を広げていくことができる。


音声認識しつつ検索し続けることは可能だろう。


デバイスで雑誌を読んでいる時に、わからない単語があったとすると、バナー通知で教えてくれる。


デバイスのカメラで視線検出してスクリーン座標を得ることはできなくはないだろう。 現状の「ペーストして検索」がもう少し使いやすくなるだけでいいのかもしれない。

さて、これらの共通点は、常に動き続けていることだ。検索結果も使うか使わないかは不明だが、先回りして検索結果を提示しなければならないのだから大変だ。 可能性は感じるが、あまりにも効率が悪い。