アーカイブ

ルネサスに強力な助っ人、車載カメラで先行なるか

ルネサスは18日、車載用スマートカメラアプリケーションの開発を容易化・迅速化する、オープンなISP(Image Signal Processor)ソリューションを発表した。助っ人は、世界最大のモバイルおよび産業用グラフィックス技術を持つMM Solutionsだ。

 自動運転での半導体の役割は大きく車載用半導体市場は急成長している。IC Insightsによれば、2016年度には前年度比10.6%増、2017年度は19.4%増だ。この勢いは2021年度まで続くという強気な予想だ。自動運転に必須な制御、人工知能(AI)、メモリ、そして目となるセンサとアクチュエータだ。この成長市場での競争は熾烈だ。車載のアプリケーション一つに関しても、数社のコラボレーションが必要であり、業界のディファクトスタンダードを各社模索する。

 今回の発表では、カメラアプリケーションの雄であるMM Solutionsに加えて、カメラ用センサでトップシェアのソニーが技術的な課題解決の手段として、IPSソルーションを推奨。車載半導体で大きなシェアを持つルネサスが、自動運転での周辺環境を検知するアプリケーションで、優位を築く構想であろうか。AIによる自動運転の前段階に注力する。

 晴れの日は勿論、雨や霧などの厳しい環境でもノイズが少なく、人間の目以上の広いダイナミックレンジの確保が必要だ。イメージセンサの設定や調整を支援するISPソリューションを開発。ISPの画像処理ソフトウェアをルネサスのプラットフォームR-Carに組み込んだが、特定なカメラに依存しないという。Tier1メーカやカメラメーカの採用を促す。

 他方、MM Solutionsのコメントは興味深い。「市場投入にかかる時間をますます短縮していくためには、複数のプラットフォームに対応したターンキーISPソリューションが不可欠」という。プラットフォームとしてルネサスR-Carの優位性を認識しつつも、他のプラットフォームも視野に置く。ルネサスR-Car搭載を踏み石に、更なる飛躍を狙う意図か。

ニュースサイト(財経新聞):
 https://www.zaikei.co.jp/article/20180920/466715.html

ロボットと光技術の融合へ―光センサー・システムの高度化が重要(4)

東京大学 石川正俊

―ロボットと光技術との融合の可能性について、どのようにお考えでしょうか

大きく分けて3つの流れがあります。
光センサーが必要であるというのは先ほどから申し上げてきましたが,一つは小型化です。正確に言うと,小型かつ軽量でなくてはなりません。ロボットには可搬重量に制限があるので,大型なセンサーを搭載するわけにはいけません。

二つ目は配線です。ロボットにはセンサーからコントローラーまで必ず配線が通ります。その配線をどうにかして光化できないものかと考えています。電力線の光化は難しいと思いますが,例えば,触覚センサーなど何かしらのセンサーを搭載するとなると膨大な配線が必要になります。これを光通信させることができないかと思っています。自由空間通信になるので難しいところもあるのですが,配線をどうにか光に高度化してロボットの邪魔にならないようにできれば良いと思っています。実は配線の扱いは大変なんです。ロボットが回転すると配線も一緒に回るので、断線する可能性があります。私の研究室でも断線はしょっちゅう起こります(笑)。
また,複数台のロボットをネットワーク化した際の通信も問題となります。ここで必要となるのは光ファイバー通信です。如何にしてレイテンシー(遅延)を最小化させるかという点が重要となります。

三つ目は,空間精度と時間精度を対象にしたセンサーの実現です。我々が研究を進めているデザインコンセプトにダイナミクス制御があります。時間・空間両方のダイナミクスをサンプリング定理以上のところで、全てカバーするという考え方です。サンプリング定理では対象の帯域の倍を計測すれば良いのですが、それ以上のことを時間・空間で計測できるセンサー・システムの構築が望まれています。
対象の変化を理解するために、センサーが対象の時間的変化・空間的変化の周波数帯域を全て取れるようになると,完全把握が可能になります。完全把握ができるということは推測する必要がなくなります。全てがリアルタイムフィードバックでよくなるので,推定が要らない,学習が要らない,予測が要らないことになります。我々が目指しているのは、そういう世界です。その設計論で前提となる完全把握するシステムというのは光技術でないとできないと思っています。

もう一つ挙げるとすれば,光学系の高速化にも期待したいところです。アクティブビジョンやアクティブオプティクスというのがありますが、例えば,焦点距離を可変にするズームレンズの動きは非常に遅い。これを1/1,000秒で実現してもらいたいと思っています。せっかく1/1,000秒のチップができても焦点面だけの話ですよね。絞りはある程度速いのですが、ズームと焦点調節は今のスピードではロボットに足りません。
人間の目がついていけないので高速の電動ズームには意味が無いとよく言われますが,そんなことはありません。例えば国立競技場の8万人の中からブラックリストに載っている人を探しだすには,まず広い範囲を撮ってそれらしい人を見つけたらとヒュッとズームして認識、違ったらまたヒュッ、ヒュッとズームを繰り返します。ズーム一回が1 msくらいでできれば80秒もあれば8万人を確認することができる計算です。ところが一回に1秒かかると60倍違う。それだけ違うと人はその間にいなくなってしまいます。

―先生はセキュリティ分野のご研究もされているのでしょうか?

もちろんメインテーマは高速のロボットです。我々が目指す世界には人間の目をまねたような光センサーではなくて,人間の目を超えてさらに光素子の限界,機械システムの限界を超えるような光センサーが必要です。人間の目で動きが見えるようであればそのロボットは遅いんです。動きが見えるようでは機械の限界に達していない。だから機械の限界に挑戦する。見えないスピードで動かないといけないというのが,私のロボットのイメージです。

(月刊OPTRONICS 2017年12月号より転載)

「ロボットの神経に期待される超高速分布型ファイバーセンサー」(4)

4.最近の進捗・今後の展開

 我々はこれまでに、プラスチック光ファイバー(POF)中のブリルアン散乱を初観測し、そのさまざまな特性を解明してきた7)。すでに、BOCDRによる分布測定も実証し、100 mmの高温区間を検出することに成功した。これに引き続き、最近では前述の「位相検波BOCDR」および「傾斜利用BOCDR」もPOFを用いて実装することに成功した。高速分布測定を実証したほか、5 mmのホットスポットの検出にも成功した。
今後は、損失の影響を受けない動作の実現、歪・温度のダイナミックレンジの向上、歪と温度の同時分離測定の実証を推進したいと考えている。また、ESAの各種機能をローカルな回路で実現するなどして大型装置を撤廃し、実用化に向けたシステムの小型化・低コスト化も並行して進めていきたい。

5.結論

 本記事では、2種類の超高速BOCDR、「位相検波BOCDR」と「傾斜利用BOCDR」について基本原理から最近の進展までを紹介した。これらの手法は、伸び縮み(振動)や温度変化の分布情報を片端からの光入射で、リアルタイムかつ高空間分解能で取得できるため、様々な構造物(ビル・橋梁・トンネル・ダム・堤防・パイプライン・風車の羽根・航空機の翼など)に関わる防災・危機管理技術として幅広く活用することができる。また、アームに巻き付けることで、任意の位置で接触や変形、温度変化を検出するロボットの新しい「神経」としての応用も期待できる。
なお、本手法によるリアルタイム分布測定の動画を、https://youtu.be/0TKUivvYbH0 にて公開中である。

(※月刊OPTRONICS 2017年12月号より転載)

参考文献

7)Y. Mizuno, N. Hayashi, and K. Nakamura, “Distributed Brillouin Sensing Using Polymer Optical Fibers”, Chap. 5, in H. Alemohammad, Opto-Mechanical Fiber Optic

ロボットセンサの基礎知識(4)

東北学院大学工学部
機械知能工学科 教授
熊谷正朗

一方の外界センサは、ロボットが「環境の中で」「環境に対して」動作するために必要となるものである。その作業によっては必須なものであり、場合によってはロボット本体より選定の優先度が高く、目的を達成するためのセンサ・センシングシステムを先に選定して、それを有効に機能させられるようにロボットを選定・開発することになる。いわば、ロボットのためのセンサではなく、センサのためのロボットである。そのため、「なにをしたいか」を検討する時点で、センシングの検討を始める必要がある。内界センサは計測内容にさほどバリエーションがなく、センサ手法の選定よりはセンサそのものの性能的な選定が主体であることに対して、外界センサは目的に直結しているわけである。

外界センサの代表例はカメラである。実際にはカメラはセンサ本体であって、より重要なのはその後の処理認識判断系である。生産設備のような限定された環境で用いる場合は、カメラとあわせて照明も検討対象となり、照明のあて方次第で処理のしやすさが大きく変わることも多い。一方で自動運転をはじめとする屋外環境で使う場合は明るさの変化の幅が極端に大きく、かつ時間帯や天候でそもそも光源(太陽や雲など)が変わるため、カメラのダイナミックレンジが要求されるとともに、処理の難易度が高い。これもコンピュータ性能の向上とともにリアルタイム処理の幅が広がっているが、とくに複雑な環境での認識についてはまだまだと言える(人間とロボットの差は、身体運動については近づきつつある印象があるが、視覚認識処理に関してはまだ桁違いの差を感じる)。

環境内でのロボットの自律移動でしばしば用いられるセンサに(スキャン式)レーザーレンジファインダ(LRF: Laser Range Finger)、LiDAR(Light (Imaging) Detection and Ranging)がある。光を用いた距離計測には、三角測量型(前述のPSDセンサ、カメラ複数台によるステレオビジョン、パターン光源とカメラによるアクティブステレオビジョン等)と、(レーザ)光を飛ばして反射してくるまでの時間を計測するTime of Flight (ToF)型に大別される。より以前から利用されてきた超音波を用いた距離計測(超音波厚さ計も同系統手法)は、超音波を短時間出して反射してくる音を計測するToF型であるが、音が3×10の2乗[m/s]のオーダであることに対して、光は3×10の8乗[m/s]のオーダであるため、光のToFでは距離分解能を得るために時間分解能が非常に要求される。たとえば、1[ns](=1[GHz]の周期)の間に光は0.3[m]進む。言い換えれば、1[ns]単位で計測しても、往復150[mm]の分解能しか出ない。光学系の工夫や光出力を上げることで、数十[m]の測定が可能な一方で分解能を出しにくいが、これも半導体技術の進歩で高性能化しつつ手が届きやすくなってきたセンサである。スキャン式LRF、LiDARは光の送受部とともに、回転するミラーや振動するミラーなどを備え、装置から扇形に(一般に面状(1次元スキャン)に、ものによっては空間に(2次元スキャン))様々な方向に対して計測し、装置を起点とした空間の限界(壁や物体)までの距離が計測できる。これを処理することで周囲の障害物や、近づいてくる人間、作業対象の形状を得ることができるほか、ロボットの移動に伴って順次重ね合わせていくことで地図を作り、その地図上での自身の位置も推定するSLAM(Simultaneous Localization and Mapping)手法の代表的なセンサでもある(以前はSLAMというとLRFが前提であったが最近はカメラを用いるビジュアルSLAMの研究が盛んである; カメラのほうが低コスト)。また、受光・距離(時間)計測部をカメラ画素のようにアレイ状に並べることで、同時に多点の距離計測を可能とするものも発達しつつある。ただし、これらは環境の明るさに打ち勝つだけの光をこちらから出す必要があり、直射日光下での運用には、屋内に比べて制約がある。単なるカメラは環境から受け取るだけの「受動的な:パッシブな」センサであることに対して、超音波、光のToFはこちらからも環境に働きかける「能動的な:アクティブな」センサであり、測定できることは広がるが、環境負けしないことが必要となり、またアクティブセンサ同士の干渉しないような配慮も必要である。

まず先に、いまどき流行の外界センサをあげたが、たとえば、工場等での自動搬送を可能とするような床面のラインを検知するセンサ(光反射センサ・近接センサ)も外界センサと言える。また、境界上であるが、接触センサや、作業対象との間に挟む力センサも外界センサといえる。接触センサの場合は単なるスイッチ的なものが多いが、力センサの場合は単軸のセンサ他、3方向の力成分、3方向のトルク成分を同時に計測できる6軸力覚センサもあり、腕ロボットの手先に作用する力を見ながら、面にならった作業をさせることなどに使うこともできる。これもまた、以前よりはコスト的に手が届きやすくなってきた印象がある。近年では、福祉ロボット分野や、人と協調動作するロボットへの期待が高まってきており、これらの相互作用を計測するセンサの重要度は上がるといえる。ただ、従来のロボット・生産設備等は動作時に人間を隔離することで安全性を確保する思想であったことに対して、これらのロボットは接触状態を前提とする点で、それ自体の安全性への要求は非常に大きい。センサに基づく安全確保は、センサの不具合やノイズ、他の干渉などによる誤動作のリスクがあるため、なんらかの本質的な安全性の確保や、センサの多重化、認識の複合化といった、センサよりもセンシング一式としての十分な安全性が求められ、難しい分野といえる。

余談であるが、よく、センサは人間の感覚にたとえられる。たとえば、視覚に対応するものは、カメラ+画像認識処理である。興味深いのは、人間の感覚としてよく知られる「五感」である、視覚、聴覚、触覚は物理的な外界センシング、味覚、嗅覚は外部から人体に取り入れるものを判定するための化学的な外界センシングである。では、人間の内界センシングはというと、平衡感覚の三半規管と平衡斑、「熱っぽいな」などの温度感覚、間接的に関節・身体形状を推定できる筋肉の長さの感覚、「おなか空いた」などのエネルギー系の感覚など、ちゃんと多様に存在し、身体の維持や動作に不可欠である。

おわりに

以上、ロボット用のセンサという観点で概要を述べた。個別の用途ごとのセンサについては、本サイトやネット上の各種情報を検索いただくとして、全体的な概要について、読者の方々の参考になれば幸いである。

著者
熊谷正朗(くまがいまさあき)
東北学院大学工学部 機械知能工学科 教授
略歴:
2000年 東北大学大学院工学研究科修了、博士(工学)。同年 東北大学助手。2003年東北学院大学講師、助教授、准教授を経て、2013年教授。2008年より仙台市地域連携フェローを兼任。
主にメカトロニクス、ロボット系の講義を担当し、仙台市地域連携フェローでも「基礎からのメカトロニクスセミナー」を実施。

経産省レポート「2025年の崖」の衝撃

日経XTECHのこの記事が話題を呼んでいる。このままでは近い将来、日本はデジタル化の壁を超えられず、2025年にすべてが瓦解するだろう、というレポートだ。要するに私達が使っているITシステムは、そのベースに基幹系のシステムがあるのだが、その基幹系システムを忘れたツケが2025年に日本を襲うだろう、というレポートだ。このレポートは現在、IT関係者の間で大きな話題となっている。しかしながら、この壁は「現在のまま」では超えられない、ということが語られているのであって、「現在のまま」ではなく、より進化することによって超えられる、ということでもあることは言うまでもない。レポートはここからダウンロードできる

トヨタLEXUS、サイドミラーを廃止

ITmediaのこの記事によれば、トヨタLEXUSは新車種から、サイドミラーを廃止し、TVカメラとディスプレイのみでバックを確認する仕組みにするとのこと。電源系統が故障すると、バックがわからなくなるので、電源の重要性がますます注目されることだろう。

オムロンの3D-LiDAR、半導体大手エヌビディアのNVIDIA DRIVEに対応

-将来の世界的な普及に備え-

 オムロンの車載電装部品事業を担うオムロンオートモーティブエレクトロニクス株式会社(本社:愛知県小牧市/代表取締役社長:和田克弘)は20018年9月18日までに、自社の「3D-LiDAR」をNVIDIA製の自動運転車開発プラットフォーム「NVIDIA DRIVE」に対応させたと発表した。

 「NVIDIA DRIVE」とは、米半導体大手エヌビディアが自社開発した自動運転用AI(人工知能)コンピュータ。今回の対応によって、自動運転車開発に取り組む企業はNVIDIA DRIVEと3D-LiDARの両方を使用したアプリケーション開発が可能になる。

 LiDAR(ライダー)とは自動運転車用のコアセンサーの一つで、光の反射技術を使って対象物との距離を高い精度で計測する優れものだ。オムロン社の最新3D-LiDARの検知可能距離は150メートルを誇り、車両や歩行者、縁石、落下物のほか、路面の傾きや凹凸などの形状を把握する能力も高い。

 オムロンは自動運転車が将来世界的に普及することを見据え、車載センサーの開発を強化させている。報道などによれば、自動運転関連の売上を2025年度には200億円規模にすることを目標に据えているようだ。

ニュースサイト(自動運転LAB):https://jidounten-lab.com/w_5967

「Chrome 70」ベータ版は、Mac・Android端末の指紋認証に対応する

「MacBook Pro」と「Android」スマートフォンの指紋センサに新たな用途が加わるかもしれない。その用途とは、ウェブブラウザ「Chrome」でパスワードを使わずにウェブサイトとウェブアプリにログインすることだ。Androidと「macOS」向けの「Chrome 70」ベータ版で、指紋によるウェブ認証機能をデフォルトで利用できるようにすることを、Googleが公式ブログで明らかにした(「Windows」ノートPCや「iOS」デバイスに関する言及はまだない)。 指紋スキャンは、ログイン操作をパスワード入力より簡単にしてくれるほか、2要素認証によるセキュリティを強化するためにも利用できる。

Googleはこのところ、ウェブにおける指紋スキャンの利用を重視しているようだ。2017年には、「Chrome OS」に指紋スキャン機能を追加した。もちろん、Chrome OSはウェブブラウザのChromeとは異なるものだが、どちらもインターネットブラウジング向けのツールだ。ただし、「Chromebook」で指紋センサを搭載しているモデルは今のところ存在しない。とはいえ、この9月には、Chrome OSのコードの中に、指紋センサについて「すぐに利用できる機能」とする記述が見つかっている。

Googleのスケジュール表を見ると、Chrome 70は10月半ばに安定版がリリースされることになっている。10月9日に開催されるGoogleのハードウェアイベントは、そのタイミングに合わせたものなのかもしれない。

ニュースサイト(CNET News): https://japan.cnet.com/article/35125739/

ロボットセンサの基礎知識(3)

東北学院大学工学部
機械知能工学科 教授
熊谷正朗

センサで測定すること

一方で、ロボット用という範囲で見れば「測定する内容」はじつはそれほどは変わっていない。いうまでもなく、センサの精度・分解能・応答速度は大きく向上し、そのうえ低コスト化している。また、センサ後の処理内容が、コンピュータの進歩とともに高度化・高速化している。余談であるが、ここ20年間のロボット技術の進歩はコンピュータ・半導体技術の進歩によるといっても過言ではない。単純に演算力が向上したことで従来はリアルタイムの処理が不可能だった制御理論が使えるようになり、画像処理がリアルタイム化し、それを上回る高速化のために従来はなかった手法が提案・試せるようになった。DCサーボモータに代わってACサーボモータが普及したことも制御マイコンの性能向上によるところが大きい。また、機械構造の計算が手軽になり、数値制御加工も一般化してメカの最適化(≒軽量化)が現実的になり、電磁場シミュレーションの実用性が上がったことでモータの最適化が(≒出力上昇・小型軽量化)なされた。制御系についても、従来は大型のコンピュータによる中央集中制御型だったが、マイコンの高性能低コスト化によって分散配置して、それらをネットワーク接続して動作させるようになり、モータの制御やセンサの処理などが全体的に底上げされている。しかしながら、ある意味、メカトロ、ロボットの根幹は変わっていないと言える。

ロボットのセンサは大きく分けると、内界センサ(内界センシング)と外界センサにわけられる。内界センシングはロボット自身の計測であり、たとえば関節角の計測、外界センシングはロボットの外の計測であり、カメラによる周囲の撮影である。

まず、ロボットがロボットとして機能するために内界センシングは必須である。たとえば、腕や脚のような関節型のロボットでは、その関節角度が重要であり、車輪移動ロボットでは、車輪の回転速度がロボットの運動を規定する上で重要である。これらは自身がどういう状態にあるかを推定(確定的に測定できる場合もあれば、車輪移動は車輪滑り、関節型も厳密にはガタやたわみがあるため、推定ということが妥当な場合もある)するために使われるほか、指令した通りに動作するようにフィードバック制御するために用いられる。一般には、モータの軸に直接に取り付けられた内蔵のロータリーエンコーダによって計測する(言い換えれば、本格的なロボットにはエンコーダ内蔵のモータを使うことが多い;メーカの制御装置を使う場合もそれが前提;関節そのものに付けることは多くない)。光学式のインクリメンタル型エンコーダはスリットが切られた円盤を光センサで読み取り、スリット単位(エッジを使いスリット数の4倍)で回転角度と回転方向が測定でき(図4)、電源投入後の相対的角度変化がとれ(アブソリュート式は常時絶対角度が読める)、一定時間での角度変化を見ることで速度が分かる。一方、ロボット制御では「力(トルク)」の制御をする場合も多いが、これはモータのトルクと電流が比例することを利用し、制御回路側においた電流センサで計測・制御することが一般的である。近年注目されているSEA(Series Elastic Actuator)では、駆動系にあえて弾性変形する要素をいれることでロボットの本質的な柔らかさ(力センサをもとに制御的につくる柔らかさもある)を得るとともに、その弾性変形の両側に変位センサを置いて力計測・制御することができる。

図4 光学式ロータリーエンコーダの原理と出力パルス

ロボットのハードの動作に対する直接的な制御では、以上のようなモータの制御が多くを占め、その上に数学的な制御を乗せるが、姿勢維持をするようなロボット、たとえば歩行ロボット、Segwayのようなバランス型車輪移動、玉乗りロボットなどのようなものの場合は姿勢の計測が必要ある。主には傾斜角速度を測定するレートジャイロと重力加速度方向(鉛直軸)をみる加速度センサを用いる。以前は個別の単軸のセンサを用い、重力軸も傾斜計という振り子+角度センサ式のものを用いる場合もあった。2種類のセンサを用いる理由は、加速度センサは絶対的な鉛直方向を見ることはできるが、加速度センサであるがゆえ自身の揺れも拾ってしまうため、長期的には(かなり低周波数の成分では)鉛直を示すが、短期的には(ロボット制御に主に用いる周波数成分では)役に立たない。

一方でレートジャイロは応答性は十分に得やすいが、「角速度」のセンサであるため傾斜角を得るには積分する必要があるが、角速度のゼロ点がわずかでもずれていると、それが積分で蓄積して角度計測値が時間とともにずれていき、制御の基準たり得ない。そこで両者を組み合わせることが一般的で、ジャイロで応答性を、加速度センサで安定性を確保する(20年以上に渡ってこの構成を使っているが、ジャイロセンサの性能が随分上がりジャイロ単独でも持つ時間は伸びた)。これが、半導体のMEMS技術の発達とともに、小型化、高精度高分解能化、計測の多軸(2,3軸)化、さらには地磁気センサまで含めたワンチップ化(IMUセンサ: Inertial Measurement Unit, 慣性計測装置)となってきた。前述のようにジャイロの長時間安定性の不足を鉛直軸は加速度センサで補うが、方位角の補正を地磁気によるわけである。加えて、これらのセンサの統合手法の研究も進み、センサに処理コンピュータを内蔵し、各センサ値から姿勢角そのものを出力するようにしたセンサもある(驚くべきことに数百円で買えるものもある)。このIMUセンサの発展の影にはゲーム機やスマホへの採用があるといえる。コントローラを振ったときの動作計測、スマホ類もその傾斜などを画面に反映させるために使用しているが、スマホで使うということは数が出て、小型化低コスト化およびスマホCPUとの接続性が望まれ、急激に進歩した。ロボット系のために作られたわけではないであろうが、我々もその恩恵にあずかっている。また、この発展はドローンにも直結しており、「ドローンはスマホの技術で作られている」という不思議な説明を耳にすることがあるが、制御を可能にする高性能マイコン、姿勢計測のための小型IMUセンサ、小型GPSや通信モジュールの転用という意味ではある意味正しい(が、やはりいろいろと別物である)。

そのほか、内界センサにあたるものとしては、各部の温度を測定する温度センサや電池の利用状況を測定する電圧電流センサがある。温度の上昇しすぎは、部品類の寿命低下、モータの性能低下を招くことがある。定格内で使えば影響は少ないが、ロボットでは間欠動作の場合も多く、定格を超える短時間最大を前提にした設計をすることもあり、信頼性の確保には温度のモニタリングが必要である。また、バッテリ動作する機器では電池残量は重要であり、安全に停止できる範囲の見極めや(ドローンにとっては死活問題である)、自動充電などに用いられる。いずれも、基礎研究段階のロボットでは省かれる場合も多いが、実用的なロボットとする場合には重要となる。

次週に続く―

著者
熊谷正朗(くまがいまさあき)
東北学院大学工学部 機械知能工学科 教授
略歴:
2000年 東北大学大学院工学研究科修了、博士(工学)。同年 東北大学助手。2003年東北学院大学講師、助教授、准教授を経て、2013年教授。2008年より仙台市地域連携フェローを兼任。
主にメカトロニクス、ロボット系の講義を担当し、仙台市地域連携フェローでも「基礎からのメカトロニクスセミナー」を実施。

「ロボットの神経に期待される超高速分布型ファイバーセンサー」(3)

3.傾斜利用BOCDR

2種類の超高速BOCDRのうち2つ目は、「傾斜利用BOCDR」6)である。高速化の基本的な考え方は位相検波BOCDRと同様である。すなわち、従来はBGS全体を観測後にピークを与える周波数(BFS)を算出しており、比較的長時間の測定時間が必要であった。これに対し、傾斜利用BOCDRでは、ESAのゼロスパン機能によりBGSの傾斜部分に位置する特定周波数におけるパワーのみを抽出し、その経時変化をオシロスコープで高速に取得する(図7(a))。歪や温度変化によるBFS情報だけではなく、光損失に関する情報も同時に得ることができるのも特徴である(図7(b,c))。

図7. 傾斜利用BOCDRの動作原理
(a) 傾斜のパワー変化がBFSの変化と一対一対応する様子
図7. 傾斜利用BOCDRの動作原理
(b) 歪と温度変化が印加された場合のシステム出力。
図7. 傾斜利用BOCDRの動作原理
(c) 局所的な損失が印加された場合のシステム出力。

図8に示す実験系を用いて、これまでに歪・温度・損失の分布測定を実証し、高速測定についても基礎実験を行った。原理的には、傾斜利用BOCDRは位相検波BOCDRを凌ぐ高速測定が可能である。

図8. 傾斜利用BOCDRの実験系

さて、傾斜利用BOCDRの最終出力は、従来のBOCDRの出力とは異なる。シミュレーション結果を図9(a–c)に示す。従来のBOCDRでは、最終出力であるBFS分布は、実際に印加されている歪や温度変化の分布に完全に対応し、その形状は一般に矩形であった(図9(a))。また、理論空間分解能(図中でR)よりも短い歪印加区間・高温区間(以下、これらを「ホットスポット」と総称する)は検出されなかった。しかし、傾斜利用BOCDRの場合は、ホットスポットの長さと理論空間分解能の大小関係に応じて、出力(光パワー変化)分布の形状が台形となる(図9(b))。特に、ホットスポットの長さと理論空間分解能が等しい場合は、出力分布の形状は三角形となる。さらに特筆すべき点は、理論空間分解能よりも短いホットスポットに対しても出力が変化していることである。この性質をより詳しく調べた結果が図9(c)である。理論空間分解能がR、ホットスポットの長さがrのとき、出力変化量の最大値はr/R倍、出力が変化して見える区間の長さはr + Rとなることが明らかになった。すなわち、傾斜利用BOCDRは、従来のBOCDRで定義される理論空間分解能を超えた、極めて短いホットスポットを検出できる機能(以下、「超理論分解能効果」と称する)を有することが明らかになった。

図9. 従来のBOCDRの出力と傾斜利用BOCDRの出力の比較
(a) 従来のBOCDR
図9. 従来のBOCDRの出力と傾斜利用BOCDRの出力の比較
(b) 傾斜利用BOCDR(ホットスポットが比較的長い場合)
図9. 従来のBOCDRの出力と傾斜利用BOCDRの出力の比較
(c) 傾斜利用BOCDR(ホットスポットが比較的短い場合)

次に、上記の考察の正当性を実験的に検証した。まず、約13 mのシリカファイバーの20 cmの区間に1500 μεの歪を印加した際の傾斜利用BOCDRの出力を図10(a)に示す。理論空間分解能は9.5 cmとした。このスケールの測定範囲では、正しく歪印加区間が検出できているように見える。

図10. 傾斜利用BOCDRによる分布測定結果
(a) 13 mのシリカファイバーの20 cmの区間に1500 μεの歪を印加したときの出力.

次に、5 cmから100 cmまで印加区間を変化させながら、750 μεおよび1500 μεの歪を印加したのが図10(b,c)である。点線は理論線を示す。歪の大きさに関わらず、測定値は理論値と良い一致を示した。特に、理論分解能未満の 5 cmの歪印加区間が正しく検出され、超理論分解能効果が実証されたといえる。

図10. 傾斜利用BOCDRによる分布測定結果
(b,c) 歪印加区間の長さを変化させたときの出力(歪印加区間付近の拡大図).
(b)では750 με, (c)では1500 μεの歪を印加。

続いて、この超理論分解能効果によって、どの程度まで短いホットスポットが検出できるかを実験的に検証した。詳細は省略するが、空間分解能を約1 mに設定し、歪印加区間の長さを1 mから減少させたときの傾斜利用BOCDRの出力を調査した結果、この条件下では、理論空間分解能の少なくとも1/50以下の短いホットスポットを検出する能力があることが明らかになった。
最後に、この結果を元に、理論空間分解能を約10 cmに設定し、その1/50にあたる2 mmの歪印加区間を検出した結果が図11(a)である。また、出力変化の最大値を印加歪に対してプロットしたのが図11(b)である。依存性はほぼ線形であった。以上より、2 mmの歪印加区間の検出に成功した。これまでにブリルアン散乱を用いた分布型光ファイバーセンサーで検出が実証されたホットスポットの最短の長さは、両端光入射法であるブリルアン光相関領域解析法を用いた場合の3 mmであった。すなわち、傾斜利用BOCDRの超理論分解能効果を用いることで、世界記録を塗り替えることができた。

図11. (a) 3 mのシリカファイバーの2 mmの区間に歪を印加したときの傾斜利用BOCDRの出力。
図11. (b) 印加歪に対する出力変化の最大値の依存性。

(※月刊OPTRONICS 2017年12月号より転載)

参考文献

6) H. Lee, N. Hayashi, Y. Mizuno, and K. Nakamura, “Slope-assisted Brillouin optical correlation-domain reflectometry: proof of concept,” IEEE Photon. J. 8, 6802807 (2016).

次週に続く―