アーカイブ

様々なセンサデータ取得が容易なスマートブイを開発 KDDI研究所

実証実験中の新型スマートブイ(右)

KDDI総合研究所は6月19日、従来のものと比較して大幅に軽量化・省電力化した新型のスマートブイを開発したと発表した。新型では、従来のLTEに加えて、IoT向けの無線通信方式LPWA(Low Power Wide Area)対応の通信モジュールも搭載可能にしている。

各種センサーや通信機能を搭載したスマートブイを用いて漁獲量の予測を実現し、効果的な出漁判断などによる漁業の効率を目指したスマート漁業の研究を総務省 戦略的情報通信研究開発推進事業(SCOPE)の一環として取り組んでおり、2016年10月より宮城県石巻湾漁場において実証実験を行っている。
これまでの実証実験から漁獲量の実績データと、スマートブイで得られるセンサーデータや周辺の気象データを組み合わせて分析することで、おおまかな漁獲量予測が可能との結果が得られている。

一方で、従来のスマートブイでは、搭載している一次電池の寿命が約1ヶ月で定期的な電池交換作業が必要であり、重量が20kg以上で、ブイ運用に関する作業負担が大きいことが課題となっていた。

また、従来のスマートブイは、1台で複数の多様なセンサー(水温・水圧、塩分濃度、潮流など)を搭載しているが、その構造的な複雑さや、頻繁な清掃の必要性などの面で、メンテナンス性にも課題があった。
これまでの実証実験で得られた結果から、水深が異なる位置に対応した複数の水温センサーだけで、漁獲量を十分予測できることがわかった。

今回開発した新型スマートブイは、浸水による発火の危険性が少ない二次電池とソーラーパネルを組み合わせて利用し、電池交換などのメンテナンス不要で1年間の連続動作実現を目指している。
また、搭載するセンサーは、漁獲量予測に寄与すると考えられる多層の水温測定が可能な水温センサーの他、塩分や溶存酸素など様々なセンサーを目的に応じて交換・接続することも可能で(※接続できるのは1種類のみ)、重量は従来型スマートブイの50%程度に軽量化した。
これらにより、従来型のスマートブイと比較して運用性が格段に向上し、効果的な長期間データ取得を可能としている。

関連サイト:http://www.kddi-research.jp/newsrelease/2018/061901.html

AR(仮想現実)でサッカー試合をリアルタイムに再現

ワシントン大学・サッカーの試合映像をAR(拡張現実)を用いてテーブル上に再現。(Tech Crunch)。

巨大災害に備える「LPWA」

2018年6月18日朝、北大阪を震源とする地震が関西地区を襲った。18日午後1時の時点で、確認された死傷者1名という報道がある。地震発生と同時に報道より先にソーシャルメディアなどに画像があふれた。東京などから関西地区への電話はほとんどつながらなかったが、今回はインターネット網が生きている場所が比較的多かったらしく、ほとんどの地域でインターネット網で少量のテキストデータをやりとりするSNSやメールなどは問題なく届いた。しかしながら、東日本大震災などでは、インターネットのデータを通す回線そのものが動かない、ということもあった。こういったインターネット網、携帯電話のデータ通信網が寸断された状況で活躍するのが「LPWA(Low Power Wide Area)」である。2013年に特小無線の規格の一部として認可されたLPWAだが、現在日本ではSigFox、LoRaなどの規格をベースとしたシステムが稼働を始めているが、まだ多く使われているとは言い難い状況だ。SENSAITのWebマガジンではLPWA網についても解説記事を用意する。

壁の向こうの「人の動き」を感知する

米国サイエンス・デイリーによれば、MIT(Massachusetts Institute of Technology)は、壁の向こうにいる人を検知するシステムを開発、発表した。各種センサーのデータとそれらを組み合わせてAI(人工知能)が、壁の向こうにいる人を、判断し、検知する。複数のセンサーを組みあわせ、AI等のソフトウエアで1つの結果を得る、というシステムは、今後の主流になると考えられている。「1つのセンサーの時代」ではなくなった。

シャープ、ペット事業者・研究機関対象「犬向けバイタル計測サービス」を開始

シャープは、大阪府立大学 生命環境科学域との共同研究により、業界で初めて犬の自律神経バランスを数値化する技術を開発し、これを応用した「犬向けバイタル計測サービス」事業に参入。その第一弾として、①ペット関連商品やサービスを開発する関連企業向けの計測・解析サービス、及び、②研究機関向けの計測システムのレンタルサービスを開始する。

本サービスでは、測定した犬の自律神経バランスをはじめ、呼吸数・心拍数のデータを利用者に提供する。ペット関連企業向けには、犬に寄り添った関連商品・サービスの開発加速を目的に、バイタル計測に加えてデータ解析も含めてサポート。研究機関向けには、犬の健康管理に役立つ新たな発見に繋げることを目的に計測システム一式を貸出すサービスも行う。また、今後は獣医師向けシステムの検討も行っていく。

将来的には、これまで培ってきたセンシング技術とクラウドサービスを含むIoT技術「AIoT」を駆使し、大切なペットと人との良好な関係を支えるサービスとして、一般消費者向けの提供も視野に、さらなる事業の拡大を図っていくとのこと。

「犬向けバイタル計測サービス」の開始は7月1日、主な内容と費用については、
・サービス形態①(ペット関連企業向け)計測・解析サービスの場合、費用は受託内容に応じ見積り・サービス形態②(研究機関向け)計測システムレンタルサービスの場合、月40万円から(8頭分)

特長としては以下の3項目を挙げている。
1.業界初、犬の緊張/リラックス状態と相関のある自律神経バランスの数値化を実現
2.大阪府立大学と共同開発した新規のアルゴリズムによる解析データを提供
3.独自構造のハーネス型ウェアラブルセンサにより多くの犬種で剃毛せず計測できる

関連サイト:
http://www.sharp.co.jp/corporate/news/180611-b.html

オプテックス、在席の「今を可視化」する存在検知センサー発売

オプテックス株式会社(本社:滋賀県大津市、代表取締役社長:上村 透、以下「オプテックス」)は、オフィス内の会議室利用状況やシェアスペースの在席状況などを確認できる存在検知センサー「CPD」を8月より販売開始する。 働き方改革に代表される、活発なコミュニケーションや自由なワークスタイルに合致した、フリースペースの効果的な運用を実現するために開発した製品となっている。

現在、IoTを活用してオフィス内の会議室や休憩所・フリーデスクの利用状況などの確認や、慢性的なスペース不足を解消するために、オフィススペースの最適化を行うコンサルティングサービスを導入、または導入を検討する企業が増加している。 
このサービスは、天井や机などの下に設置された人感センサーによって人の在/不在を判別し、そこで得られた情報からスペースの空き状況や在席状況を可視化、ユーザの利便性向上・無駄スペースの解消・利用状況に応じたレイアウトの最適化提案などを行う。

これらのサービスでは、人の存在を判別するさまざまなセンサーが利用されているが、実際に確認すると空いているはずの会議室が使用されていたり、誰も使用していない会議室が利用中となっているなど、センシング精度に課題があった。

オプテックスのワイヤレス存在検知センサー「CPD」は、集中している状態などのほとんど体の動きがない時や、座席の周りに人の往来がある時でも、着席している人を確実に判別できるので、高い精度で利用状況確認が可能。
設定はボタンのみで配線不要の簡単取付。多くの場所に設置しても導入ハードルの低い価格設定を実現し、オフィスのスペースマネジメントの運用者、施工者の双方の負担低減に対応する。

センサーから得た在席情報を在席管理システムなどと連携することで、PCやスマートフォンから遠隔で「今」の状況を把握できる。これにより、オフィスのスペースマネジメントを推進する運用者にとっては、スペースの有効活用の実践や生産性向上とともに、ワークスタイル改善投資に対する費用対効果を高めることが可能。 また、利用者にとっては、空いている場所を探したり、待ち時間を短縮できるなど、効率的な行動をとることが可能である。

関連サイト:
http://www.optex.co.jp/news/whatsnew_detail.cgi?ID=20180604144028

宇宙航空研究開発機構(JAXA)つばめ(SLATS)」の運用状況を発表

宇宙航空研究開発機構(JAXA)は2018年6月1日(金)、2017年12月23日(土)に打ち上げた超低高度衛星技術試験機「つばめ(SLATS)」の運用状況を発表した。

「つばめ」(SLATS)の「初期段階フェーズ」を今年の3月に完了し、大気抵抗を用いて少しずつ軌道高度を降下させていく「軌道遷移フェーズ」へ移行し、現在は、380km付近の高度で順調に運用を続けており、〈1〉小型高分解能光学センサ(SHIROP)、〈2〉光学センサ(OPS)〈3〉原子状酸素モニタシステム(AMO)の3種類のミッション機器を用いて観測運用を行っている。
今後も大気抵抗を用いて除々に高度を降下させていき、イオンエンジンを用いて軌道保持を開始する超低高度268kmに到達するのは、平成31年4月頃になる見込みとのこと。

関連サイト:
http://www.jaxa.jp/press/2018/06/20180601_slats_j.html

監視カメラなどの人工知能機能(顔認識など)を誰でも使えるように

現在開催されているCOMPUTEX TAIPEIで、台湾YUANハイテック社が、監視カメラなどの顔認識などの人工知能的機能を、監視カメラアプリケーション開発者が容易に使えるSDKを発表。このSDKを使うと、特別な技術を保有していなくても、監視カメラの顔認識などの機能が使えるようになる。

YUANハイテック社のSDKのホームページ

 

ロボットと光技術の融合へ―光センサー・システムの高度化が重要

―日本のロボット開発の現状をどのように見ていらっしゃいますか?

東京大学 石川正俊

日本のロボット開発は随分と進んでいますが,ロボットを議論する際,産業用ロボットとそれ以外のロボットとに分けて考えないといけません。産業用ロボットでは、プレイバックで同じ動作を繰り返すというものから対象物の状況を把握してそれに合わせて動作する方向へと進んでいます。
そのキーとなるのは、センサーとアクチュエータの高速化です。センサーでは,1/1,000秒(1ms)で高速にデータを出力させるのがポイントの一つとなっています。ロボット用サーボモーターのサンプリングレートでよく使われるのは1ms,2ms,5msあたりですが,このサンプリングレートに合わせたデータを入れるのが要求側の最速値となっています。これに対応してきたのは,これまで力センサーや角度センサーでした。これに対して画像を用いたセンサーはそこまで達していませんでした。それが今では1/1,000秒という高速にデータを処理することができるようになっています。これを搭載した高速・高精度,かつフレキシブルな動作を行なう産業用ロボットがこれからの姿になるでしょう。
一方,AI(人工知能)と関連したロボットがあります。ヒューマノイド型であったり、AIによっていろんなことができたりするロボットです。これらはエンターテイメントをはじめとして応用範囲を広げてはいますが、研究開発段階のものが多く,実際に使えるものとしては実現されているものは多くありません。その理由は,精度など信頼性に問題があるからです。

これをAIの問題ととらえると、人間的な動きをするという考え方がその一つにあります。これは私の考えですが,人間的な動きをするというのがロボットではなくて、ロボットというのは機械システムとして本来の働きをしなければならないと思っています。産業用ロボットは物理的な速度限界はあるものの,動作スピードは速いですが、AI系のロボットは遅いのです。これだと機械システムの性能を無駄遣いしているのではないかと思ってしまいます。では、速度限界に近づけるにはどうしたら良いかということになりますが,その答えは知能を高速化させるということになります。これはなかなか大変なことだろうとは思います。

―では、先生が狙っているところとは?

産業用ロボットの知能を高めていくことです。そのためには,センサーとアクチュエータの高速化,高精度化が重要になります。センサーに関しては,その機能はかなり高まってきていますが,要求速度は先ほど申し上げたように1/1,000秒なので,これに対応するための開発が必要です。特に一般的な光センサーは遅いので、それを如何に高速化させるかが課題です。
光三次元形状計測を例に挙げますが,現在製品化されている多くのものは遅いのが現状です。CEATECに出展しましたが,エクスビジョン(石川氏が創業したベンチャー企業)では1/1,000秒で高速三次元計測を可能にするシステムを開発しています。これは対象物に対し,測定用のパターン画像を1,000fpsで投影可能なプロジェクターと高速ビジョンセンサーを使用することで,高速に移動している物体をリアルタイムで形状計測できるものです。1/1,000秒で認識する高速ビジョンセンサーはロボット制御にもそのまま使うことができます。

―高速ビジョンセンサーについて詳しく教えてください。

石川教授の研究室とソニーが共同開発した高速ビジョンセンサーをパラレルリンクロボットの先端に搭載。

我々の研究室とソニーとが共同で開発したもので,ソニーが実用化を発表しています。この成果をこの2月に開催されたISSCCで発表しましたが,我々の研究室ではこれを搭載したパラレルリンクロボット(ファナック製)を用い,高速画像認識技術などの研究開発を進めています。このチップはcolumn parallelという方式で,1/1,000秒で画像処理ができるものです。1番上の層に1/1,000秒でも感度が高いイメージャーがあり,二層目にAD変換が約1,300個,4bitと1bitプロセッシングエレメント(PE)も約1,300個が並列実装されています。フレームレートは,フル解像度で500 fps(2メガピクセル4 bit)。それを1/4にした0.3メガピクセルで1,000fpsになります。これを例えばGPUでやろうとしたら何十Wという消費電力が必要ですが,このチップはわずか363mWです。
これまで1/1,000秒の画像処理を実現させるのには高価な画像処理装置が必要でしたし,カメラ自体も感度が足りなかったり,足りたとしても分解能が低かったりという問題がありましたが,このセンサーでは感度も分解能も満足するものとなっています。それでいて超低消費電力。私はこの高速ビジョンセンサーが今後のロボットの世界を根底から変えると思っています。なぜならロボットの指先に載せられるので,相対値制御が実現できるからです。そうなるとある程度のずれはローカルに補償できるので,プレイバックという概念がなくなります。これは非常に大きなインパクトがあります。

―具体的にどのようなインパクトがあるのでしょうか?

それはロボットを止める必要がなくなるということです。現状は、ロボットが三次元形状計測を行なう際には毎回動作を止める必要があります。止まって画像計測を行ない,それに合わせて動作し,また画像計測を行なうのに止まるのを繰り返すわけです。その間に揺れてしまうという問題もあります。
それがこの高速ビジョンセンサーを使うと,揺れても1/1,000秒単位の情報がコントローラーに入っているので止まらずに動作することが可能になります。
それともう一つ,我々が取り組んでいるものとしてDynamic Compensation(動的補償)があります。これは大きな動きに対して細かいところは全てローカルのフィードバックに任せるというものです。画像計測が高速であれば本体のダイナミクスを全て補償できるので、筐体がどう動こうが問題になりません。例えばロボットアームの先に取り付けたセンサーで20 mm×20 mmの範囲の動きをフィードバックすれば,相対位置制御によってアームから先の動きは20 mmの精度で良くなるわけです。1/1,000秒の高速画像処理ならびに1/1,000の三次元形状計測ができると、産業用ロボットのフレキシビリティや知能は格段に上がります。

―AI系ロボット側から見るといかがでしょうか?

三次元形状計測は出来ていますが,先ほども申し上げたようにスピードが遅いという問題があります。高速化するにはセンサーのことが分かっていないといけません。いま期待されているのはTOF方式センサーですが,自己位置推定の高速化も必要です。
AIについて、ロボット掃除機「ルンバ」の開発者であるロドニー・ブルックスが随分前に「象はチェスをしない」という論文を発表しました。ここでチェスというのはロジックのAIを指しています。このロジックは組合せの最適化で問題を解くというタイプで、正しいロジックを通じてインテリジェンスを発揮していくというものです。しかし象にそんなロジックは必要ないというのです。象にとっては,リアルワールド・リアルタイムである今の世界をどうやって生きていくかという知能が必要であって、チェスの知能は要らないというわけです。
ロジックの方の知能には,あまり光技術は関係してこないと思います。しかし,リアルタイムの世界では光技術,あるいはセンサー技術が重要となります。いずれもリアルタイムを実現するものです。私はどちらかというと象の方の立場にいますが,近い将来,ロジックとリアルタイムの知能が一体化すると思っています。一体化するためのカギを握っているのは,リアルタイム側の技術です。なので,センサーデバイスの高精度化,高速化は必ず必要です。
AIやIoTを実現するため、ディープラーニングなど色々な知能を埋め込むのも重要ですが、実際にインプリメントする場合には実世界を全て理解していることの方が重要で、そうなるとセンサーの能力が高い方が知能としても高くなります。これが、私が見ているこれからのロボット開発のトレンドと、光センサーを開発されている方々への期待感です。
そのことを理解してAIやIoTを構築する必要があります。これは日本が強いのではないかと思っています。欧米はチェスロボットに代表されるような上の層の知能を上げるという方向に走っていますが,例えば,工場全体を知能化するには,どれだけセンサーをうまく作れたかが重要となります。ですので、日本はセンサーの知能の高度化に迫って行くほうが良いと思います。

―ロボットと光技術との融合の可能性について、どのようにお考えでしょうか

大きく分けて3つの流れがあります。
光センサーが必要であるというのは先ほどから申し上げてきましたが,一つは小型化です。正確に言うと,小型かつ軽量でなくてはなりません。ロボットには可搬重量に制限があるので,大型なセンサーを搭載するわけにはいけません。

二つ目は配線です。ロボットにはセンサーからコントローラーまで必ず配線が通ります。その配線をどうにかして光化できないものかと考えています。電力線の光化は難しいと思いますが,例えば,触覚センサーなど何かしらのセンサーを搭載するとなると膨大な配線が必要になります。これを光通信させることができないかと思っています。自由空間通信になるので難しいところもあるのですが,配線をどうにか光に高度化してロボットの邪魔にならないようにできれば良いと思っています。実は配線の扱いは大変なんです。ロボットが回転すると配線も一緒に回るので、断線する可能性があります。私の研究室でも断線はしょっちゅう起こります(笑)。
また,複数台のロボットをネットワーク化した際の通信も問題となります。ここで必要となるのは光ファイバー通信です。如何にしてレイテンシー(遅延)を最小化させるかという点が重要となります。

三つ目は,空間精度と時間精度を対象にしたセンサーの実現です。我々が研究を進めているデザインコンセプトにダイナミクス制御があります。時間・空間両方のダイナミクスをサンプリング定理以上のところで、全てカバーするという考え方です。サンプリング定理では対象の帯域の倍を計測すれば良いのですが、それ以上のことを時間・空間で計測できるセンサー・システムの構築が望まれています。
対象の変化を理解するために、センサーが対象の時間的変化・空間的変化の周波数帯域を全て取れるようになると,完全把握が可能になります。完全把握ができるということは推測する必要がなくなります。全てがリアルタイムフィードバックでよくなるので,推定が要らない,学習が要らない,予測が要らないことになります。我々が目指しているのは、そういう世界です。その設計論で前提となる完全把握するシステムというのは光技術でないとできないと思っています。

もう一つ挙げるとすれば,光学系の高速化にも期待したいところです。アクティブビジョンやアクティブオプティクスというのがありますが、例えば,焦点距離を可変にするズームレンズの動きは非常に遅い。これを1/1,000秒で実現してもらいたいと思っています。せっかく1/1,000秒のチップができても焦点面だけの話ですよね。絞りはある程度速いのですが、ズームと焦点調節は今のスピードではロボットに足りません。
人間の目がついていけないので高速の電動ズームには意味が無いとよく言われますが,そんなことはありません。例えば国立競技場の8万人の中からブラックリストに載っている人を探しだすには,まず広い範囲を撮ってそれらしい人を見つけたらとヒュッとズームして認識、違ったらまたヒュッ、ヒュッとズームを繰り返します。ズーム一回が1 msくらいでできれば80秒もあれば8万人を確認することができる計算です。ところが一回に1秒かかると60倍違う。それだけ違うと人はその間にいなくなってしまいます。

―先生はセキュリティ分野のご研究もされているのでしょうか?


もちろんメインテーマは高速のロボットです。我々が目指す世界には人間の目をまねたような光センサーではなくて,人間の目を超えてさらに光素子の限界,機械システムの限界を超えるような光センサーが必要です。人間の目で動きが見えるようであればそのロボットは遅いんです。動きが見えるようでは機械の限界に達していない。だから機械の限界に挑戦する。見えないスピードで動かないといけないというのが,私のロボットのイメージです。

(月刊OPTRONICS 2017年12月号より転載)

東芝、自動運転システム向け長距離LiDARの回路技術を開発

東芝は、レーザの照射により、離れた物体までの距離情報を3D画像として得る技術「LiDAR」において、世界最高(注1)となる200mの長距離測定性能と高解像を実現する、車載用LiDAR向けの計測回路技術を開発した。これにより、従来の車載用LiDARと比較(注2)して測定可能距離が2倍となる。高速道路走行中の車両または障害物の早期検知および市街地走行中における歩行者の見落とし低減につながり、より安全で高度な自動運転システムの実現に貢献するとしている。

同社は今後、さらなる測定距離の延伸および精度向上等についての研究開発を進め、2020年度までに実用化技術の確立を目指す。

LiDARは、自動運転に必要となる車の周辺環境を3D画像として把握できるため、高度な自動運転システムの実現に重要な要素で、同社はこの度、200mまでの長距離を高精度に測定できる独自のハイブリッド回路と、小さな物体も検知可能な高解像測距技術を開発した。

(注1)LiDARにおいて雑音となる太陽光強度が70キロルクス、対象物体の反射率10%の条件下において。
(注2)学会で発表された車載向けLiDARシステムにおけるベンチマーク。

●ニュースサイトリンク
http://www.toshiba.co.jp/about/press/2018_03/pr_j0501.htm