―ロボットと光技術との融合の可能性について、どのようにお考えでしょうか
大きく分けて3つの流れがあります。
光センサーが必要であるというのは先ほどから申し上げてきましたが,一つは小型化です。正確に言うと,小型かつ軽量でなくてはなりません。ロボットには可搬重量に制限があるので,大型なセンサーを搭載するわけにはいけません。
二つ目は配線です。ロボットにはセンサーからコントローラーまで必ず配線が通ります。その配線をどうにかして光化できないものかと考えています。電力線の光化は難しいと思いますが,例えば,触覚センサーなど何かしらのセンサーを搭載するとなると膨大な配線が必要になります。これを光通信させることができないかと思っています。自由空間通信になるので難しいところもあるのですが,配線をどうにか光に高度化してロボットの邪魔にならないようにできれば良いと思っています。実は配線の扱いは大変なんです。ロボットが回転すると配線も一緒に回るので、断線する可能性があります。私の研究室でも断線はしょっちゅう起こります(笑)。
また,複数台のロボットをネットワーク化した際の通信も問題となります。ここで必要となるのは光ファイバー通信です。如何にしてレイテンシー(遅延)を最小化させるかという点が重要となります。
三つ目は,空間精度と時間精度を対象にしたセンサーの実現です。我々が研究を進めているデザインコンセプトにダイナミクス制御があります。時間・空間両方のダイナミクスをサンプリング定理以上のところで、全てカバーするという考え方です。サンプリング定理では対象の帯域の倍を計測すれば良いのですが、それ以上のことを時間・空間で計測できるセンサー・システムの構築が望まれています。
対象の変化を理解するために、センサーが対象の時間的変化・空間的変化の周波数帯域を全て取れるようになると,完全把握が可能になります。完全把握ができるということは推測する必要がなくなります。全てがリアルタイムフィードバックでよくなるので,推定が要らない,学習が要らない,予測が要らないことになります。我々が目指しているのは、そういう世界です。その設計論で前提となる完全把握するシステムというのは光技術でないとできないと思っています。
もう一つ挙げるとすれば,光学系の高速化にも期待したいところです。アクティブビジョンやアクティブオプティクスというのがありますが、例えば,焦点距離を可変にするズームレンズの動きは非常に遅い。これを1/1,000秒で実現してもらいたいと思っています。せっかく1/1,000秒のチップができても焦点面だけの話ですよね。絞りはある程度速いのですが、ズームと焦点調節は今のスピードではロボットに足りません。
人間の目がついていけないので高速の電動ズームには意味が無いとよく言われますが,そんなことはありません。例えば国立競技場の8万人の中からブラックリストに載っている人を探しだすには,まず広い範囲を撮ってそれらしい人を見つけたらとヒュッとズームして認識、違ったらまたヒュッ、ヒュッとズームを繰り返します。ズーム一回が1 msくらいでできれば80秒もあれば8万人を確認することができる計算です。ところが一回に1秒かかると60倍違う。それだけ違うと人はその間にいなくなってしまいます。
―先生はセキュリティ分野のご研究もされているのでしょうか?
もちろんメインテーマは高速のロボットです。我々が目指す世界には人間の目をまねたような光センサーではなくて,人間の目を超えてさらに光素子の限界,機械システムの限界を超えるような光センサーが必要です。人間の目で動きが見えるようであればそのロボットは遅いんです。動きが見えるようでは機械の限界に達していない。だから機械の限界に挑戦する。見えないスピードで動かないといけないというのが,私のロボットのイメージです。
(月刊OPTRONICS 2017年12月号より転載)