アーカイブ

ぷらっとホーム、2倍高速になるIoTゲートウェイの新ラインナップ「OpenBlocks® IoT FX1」

ぷらっとホーム(株)は10月5日、OpenBlocks® IoTシリーズの新ラインナップ、「OpenBlocks® IoT FX1」(オープンブロックス・アイオーティー・エフエックス・ワン)を発表した。

「OpenBlocks® IoT FX1」の特長

●高い堅牢性、従来の2倍超の高速処理、低消費電力、利便性が向上したハードウェア
・パワフルで高速、かつ低電力消費のMPU i.MX 8M Plus QuadLiteを搭載。
従来製品に比べ2倍超の高速化を実現しながらも、低消費電力を実現した。

・配線や電源供給に制約がある場所でも対応可能なPoE対応
IoTデバイスは人が立ち寄れない場所など、設置場所に制約があることが少なくない。Ethernetケーブルで受給電可能なPoEに対応し、様々な設置場所に柔軟に対応できる。

・ビジネスで重要な安定稼働の基礎となる堅牢性はそのままに
OpenBlocks® IoTシリーズは一貫して各製品の堅牢性を示すMTBF数値(※1)を公表しており、本製品のMTBF値は187万時間(※2)。ファンなどの可動部分をなくしたハードウェア構造による高い堅牢性は従来通り引き継いでいる。

・OpenBlocks®の代名詞、設置が容易なコンパクトサイズ
設置場所に困らない手のひらサイズの筐体や、人が通常入らないような場所だけではなく、オフィスなどの人の目に入る場所においても、設置に違和感の少ない白い外観も従来製品を踏襲している。

●高機能IoTゲートウェイソフトウェア FW5搭載。センサやクラウドとノーコード接続
・100種類以上のIoTセンサやデバイスとノーコード接続
IoTセンサなどの各種IoTデバイスは、主にIoT特有の通信規格やプロトコルが採用されている。それらのIoTゲートウェイに通常必要な、デバイスごとの接続プログラム開発を不要にし、Webブラウザ上での設定で接続を可能とした「IoTゲートウェイソフトウェア FW5」搭載している。

・主要クラウドサービスともノーコード接続で、開発工数を削減
クラウドやWebサーバーで使われるMQTTやREST等、多様なプロトコルをサポートし、主要クラウドサービスともWebブラウザ上に必要項目を入力するだけのノーコード接続可能。技術者のIoTインフラ部分の開発工数を大幅に削減し、可視化や分析に必要なアプリケーション開発に注力することが可能になる。

・Lua言語スクリプトによりFW5非対応のIoTデバイスもノーコード接続可能 (※3) 複雑なデータ構造のIoTデバイスなど、IoTゲートウェイソフトウェアFW5未対応の機器でも、ユーザーがデータ変換パターンを記したLua言語のスクリプトを追加することで、以後、ノーコードで接続できるようなカスタマイズが可能。

・FTPサーバー機能搭載、CSVファイルなどを自動的に送受信可能
FTPサーバー、クライアント機能を搭載し、CSVファイルなどのIoTデータファイルを、PLCなどのFTPサーバー機能を持つ装置からダウンロードしたり、任意のFTPサーバーへ送信することが可能。

・オプションの拡張モジュールにより、IoTにおける主要な無線通信規格に対応
標準搭載のIEEE 802.11規格の無線LAN、Bluetoothに加え、オプションの拡張モジュールを装着することにより、 LTE、EnOcean、ミスター省エネ、地域BWAなど、IoTで主要な無線通信規格に幅広く対応している。

・最新Debian GNU/Linux 11搭載
最新のDebian GNU/Linux 11を搭載し、Node-REDやDockerを代表とする豊富なLinuxオープンソースソフトウェアが利用可能。

・強固なセキュリティでの遠隔操作を実現するAirManage®2の1年間利用権付属(※4)
リモートマネージメントサービス「AirManage®2」ロゴリモートマネージメントサービス「AirManage®2」ロゴ
本製品の死活監視・一括設定変更・アップデート・グループ管理等、全ての操作が当社独自技術を用いてセキュアにリモートで行えるデバイスマネージメントサービス「AirManage®2」の1年間利用権が付属。全ての待ち受けポートを閉じ、ネットワーク内外部から本製品の存在が見えない状態で、AirManage®2からのみ操作を受け付けるステルス設定や、事前に設定情報を用意し、設置場所で本製品をインターネットに接続すると、設定が自動的にダウンロードされるゼロコンフィグといった幅広い活用ができる。

※1 MTBFはMean Time Between Failureの略称で、平均故障間隔を意味し、値が大きいほど故障間隔が長く高い信頼性を表す。
※2 PoEやDC給電時
※3 Lua言語はC言語で書かれたプログラムに機能を拡張できる、動作が早い簡易的なプログラミング言語。
※4 1年間使用権が付属し、2年目以降は保守サービスに含まれ有償となります。

ニュースリリースサイト:https://prtimes.jp/main/html/rd/p/000000128.000013751.html

ST、電源およびシグナル・コンディショニング性能を最適化する5Vオペアンプ

STマイクロエレクトロニクスは、高性能デュアル・オペアンプ「TSV782」を発表した。STの5Vオペアンプ・ファミリを拡充する同製品は、30MHzのゲイン帯域幅と50µV(Typ.)の入力オフセット電圧を備え、高速・高精度なシグナル・コンディショニングを実現するという。

TSV782は、最低2.0Vの電源電圧で動作可能で、低下したバッテリ電圧でも動作できるため、火災報知器などの動作時間の延長に貢献する。また、チャネル当たりの動作電流がわずか3.3mA(Typ.)であるため、アプリケーションの電力効率を最大化し、革新的なスマート機能やワイヤレス通信など、優れた機能・性能の実現に貢献する。2.0Vで動作するため、低電圧のロジック・デバイスと同じ電源を使用することができ、システム設計の簡略化や部品数の削減が可能である。

TSV782は、レール・ツー・レールの入出力と20V/µsのスルー・レートを備えている。STの5Vオペアンプ・ファミリには、20MHzのゲイン帯域幅と13V/µsのスルー・レートを備えた「TSV772」や、チャネル当たり5.5mA(Typ.)で動作するゲイン帯域幅50MHzの「TSV792」なども含まれている。また、「TSV7722」などの製品は、低い電圧レベルの入力が可能で、電力変換システムにおけるローサイド電流測定に最適である。

STの5Vオペアンプは、高い精度を備えているため、外付けに高価な高精度抵抗が不要で、製造工程における回路のトリミングや較正の簡略化に貢献する。今回発表されたTSV782は、最高動作温度125°Cで最大入力バイアス電流がわずか300pAのため、高インピーダンスのセンサやトランス・インピーダンス回路において高精度のシグナル・コンディショニングを実現する。

TSV782は現在量産中で、SO-8、MiniSO-8、および同等製品では業界最小クラスとなるDFN8(2 x 2mm)パッケージで提供される。単価は、1000個購入時に約0.62ドルで、STのeStoreから無償サンプルも入手可能。SO-8およびMiniSO-8パッケージで提供される車載グレード対応製品については、2022年末に量産が開始される予定。

ニュースリリースサイト:https://prtimes.jp/main/html/rd/p/000001265.000001337.html

ST、スタートアップ回路の設計が不要な高集積PFC昇圧コンバータ

STマイクロエレクトロニクスは、800Vのスタートアップ回路と優れた独自機能を集積したPFC(力率改善)ブースト・コンバータ「L4985A/B」および「L4986A/B」を発表した。
これらの製品は、設計の簡略化と柔軟性の向上に貢献するという。

L4985A/BおよびL4986A/Bには、高電圧スタートアップ回路が内蔵されているため、補助回路の無い設計を実現可能。これにより、部品コストの削減や、起動の信頼性向上に貢献する。また、スタートアップ回路には、AC電源との接続が途絶えたときに入力フィルタのXコンデンサを安全に放電する内部ロジック回路も搭載されている。これにより、従来の放電抵抗で生じていた電力損失がなくなり、IEC 61010-1やIEC 62368-1などの安全規格への準拠が簡略化される。

同製品は、PFCプリレギュレータとして、IEC 61000-3-2などの高調波歪みに関する要件を満たす必要がある機器に使用できる。デスクトップPC、サーバ、ゲーム機、テレビなどの電源や、産業用・医療用スイッチング電源(SMPS)、電動バイクの充電器など、幅広いアプリケーションに最適。また、独自の乗算器エミュレータや、全高調波歪み(THD)をあらゆる動作条件で最小化する専用回路を内蔵しているため、LED照明用の安定した電源品質も実現可能である。

L4985A/BおよびL4986A/Bは、独自のオフタイム・モジュレータにより、あらゆる負荷条件において擬似固定周波数で動作することで設計の簡略化に貢献する。また、軽負荷時およびゼロ負荷時にはバースト・モードに切り替わる。動作周波数は、L4985AとL4986Aが65kHz、L4985BとL4986Bが130kHzである。さらに、L4986A/Bには、パワーグッド入出力ピンが搭載されている。PFCの出力がユーザ設定のしきい値に達した場合にロジック信号を生成するため、システム制御に利用できる。
また、主要なエコデザイン規格に適合する省電力設計に対応できるよう、すべての品種に低消費電力のアイドル・モードを起動できる外部入力ピンが搭載されている。

さらに、過電圧保護、フィードバック・ループ、誤設定、ブースト・インダクタ飽和に対する保護機能など、包括的な保護機能とモニタリング機能も内蔵されている。ソフトスタート機能により突入電流を制限し、出力電圧の安定化を図るとともに、ブラウンアウト / ブラウンイン検出機能によりあらゆるAC電源条件下で信頼性の高い起動を実現し、過剰な実効値電流を防止する。ブラウンアウト保護機能は、AC電源電圧の低下が最大500ms継続した場合に出力レギュレーションを維持することが要求されるIEC 60601-1-2に準拠した医療機器の実現に貢献する。

また、開発期間の短縮に貢献する評価ボード「EVL400W-80PL」も提供されている。同ボードは、CLEAResult®による80PLUS Platinumレベルに準拠した包括的なAC/DC電源である。全負荷時に90.2%、50%負荷時に92.49%の高効率を実現するEVL400W-80PLには、L4985、STの共振コントローラ「L6699D」、および同期整流コントローラ「SRK2001」が搭載されている。

L4985およびL4986のすべての品種は現在量産中で L4985A/BはSO-8パッケージ、パワーグッド・ピン搭載のL4986A/BはSSOP-10パッケージで提供される。単価は、1000個購入時に約1.21ドル。

詳細については以下のサイトを参照。〔PFC(力率改善)コントローラ〕
https://www.st.com/ja/power-management/pfc-controllers.html

モーションリブ、東京都のプロジェクトに「新宿感触動物園 HapticZoo」採択さる

東京都の「5G等先端技術サービスプロジェクト」に、モーションリブ株(株)が企画提案する「新宿感触動物園 HapticZoo」が採択された。 世界最先端の感触制御技術「リアルハプティクス※」と「5G」「AR・VR技術」を組み合わせて、仮想空間上の動物と触れ合える、子どもから大人まで楽しめるかつてない感触エデュテインメントサービスを提供するという。

東京都は、デジタルの力で東京のポテンシャルを引き出す「スマート東京」の実現を目指し、先行実施エリアである西新宿で先端技術サービスの都市実装に取り組んでいる。
その一環で「西新宿先端サービス実装・産官学コンソーシアム」が設立され同社が企画提案する「新宿感触動物園HapticZoo」(以下、本プロジェクト) が「5G等先端技術サービスプロジェクト」に採択された。
本プロジェクトでは、西新宿を舞台に、広大なフィールドに生息する様々な仮想の動物と触れ合える「感触動物園」を出現させる。

同社の感触制御技術「リアルハプティクス」を「5G」「AR・VR技術」と組み合わせることで、AR・VRの世界で動物にさわるという身体性を伴ったかつてないエデュテインメントを提供することが可能となり、東京=最先端というブランドイメージに寄与することを期待しているとのこと。
なお、「新宿感触動物園 HapticZoo」のイベントは2023年2月中旬頃の開催を予定している。

※リアルハプティクスは、市販のアクチュエータ(電動、油圧、空気圧等)で、適切な力加減をリアルタイムに実現する制御技術。力加減を伴う遠隔作業、熟練者の力加減を記録した作業再現、物の物理特性をデータ化した感触再現など、力の加減、感触の硬軟を自在に操ることができる。

ニュースリリースサイト:https://prtimes.jp/main/html/rd/p/000000023.000027265.html

ドローンを用いたリモートセンシング技術の大規模圃場への応用(1)

沖 一雄
京都先端科学大学工学部
教授
沖 一雄

1.はじめに

 リモートセンシング(Remote sensing)とは,対象物が反射または放射する電磁波をセンサで観測し,対象物に直接触れることなくその温度や形状などの情報を取得する技術である.衛星を利用したリモートセンシング技術の活用方法は広域な土地利用調査や地図の作成,人が立ち入ることのできない危険な場所の調査など多岐にわたる.その中で,収量増加、コスト削減などを目的として,農作物の生育モニタリングや土壌パラメータの推定など,リモートセンシング技術を農業に利用する研究も多くおこなわれている1)- 3).
 既存のリモートセンシング技術には,衛星や航空機をプラットフォームとしたものや,現場における地上観測などがある.それぞれの手法には一長一短の特徴があり,例えば衛星画像を用いたリモートセンシングでは,一度に広大な範囲の画像を得ることができるが,画像取得時期が衛星の軌道によるため自由に選ぶことができず,欲しいときに欲しい情報が得られない場合がある.また,光学センサを用いたときに対象物が雲で遮られてしまう場合があることや,衛星画像の空間解像度では個別の作物を見ることができないため農業への適用が制限されるなどといった問題も存在する.航空機を用いたリモートセンシングでは,オペレーションコストが高いことから,衛星と同様,欲しいときに気軽にデータを得ることができない問題がある.地上観測では,自由な時間に詳細なデータが得られる一方で,広大な農地で実施するには多大な労力を要するといった問題が生じる.
 上記のような制約が示唆される中,近年,リモートセンシングの新たなプラットフォームとしてUAV(Unmanned Aerial Vehicles)が注目されている.UAVとは,無人航空機のことを指し,一般にドローン(drone)と呼ばれることが多い.近年、UAVによる農業への応用を検証する研究が盛んにおこなわれている4)。 UAVを利用することで、飛行高度やカメラの種類によっては1cm以下の空間分解能での撮影が可能で, 既存のリモートセンシング技術とUAVによる画像取得を組み合わせることで、地上観測の幅広いデータ取得が可能になる。このアプローチは、衛星や航空機よりも安価で詳細であり、農作物の収量の増加や予測技術の向上が期待される。
 本研究では、米国アリゾナ州の64 ヘクタールのピーカン果樹園で、近赤外域(0.7~1.0μm、解像度4cm)と熱赤外域(8~13μm、解像度40cm)を観測できる2台のカメラが搭載されたUAV を使用した連続モニタリング方法について報告する5)

2.データ取得と解析手法

本研究では、米国アリゾナ州サンシモンのピーカンナッツの果樹園で UAV を使用して、可視近赤外画像と熱赤外画像を撮影した。これらの画像は、植物の葉の色や温度を監視することや樹高マップを作成するために使用された。

2.1 UAV による画像取得

 観測はマルチコプタ型UAV(MATRICE 600)に2台のデジタルカメラ(可視近赤外カメラ、熱赤外カメラ)を搭載し、自動飛行によっておこなわれた(図1)。

図1 使用したUAVと搭載した機材
図1 使用したUAVと搭載した機材

各カメラから取得した画像情報を表 1 に示す。本研究では、飛行高度 120 m で撮影したため、可視近赤外カメラと熱赤外カメラでそれぞれ約 4 cm と約 40 cm の空間分解能で画像が得られた。 

表1 近赤外・熱赤外カメラそれぞれの取得画像情報
  Visible Near Infrared Thermal Infrared
Name of device Yubaflex Thermoshot
Spectral bands R, G, NIR(0.85μm) TIR(8~13μm)
Pixel number 4000pix×3000pix 160pix×120pix
Viewing angle H 72.32°× V 57.45° H 28°× V21°
File format RAW format JPEG format with temp
information
Spatial
resolution
4cm 40cm
Data size 12.5~14MB/image 60~80KB/image

撮影時の位置情報を取得するため、UAV には GPS ロガーが搭載され、 対象圃場の面積は約64ha(800m×800m)で、UAVバッテリーの制約から1圃場につき3回の飛行がおこなわれた。 現場では対空標識を設置し、画像間のマッチング精度を高めた。
 果樹園では、ピーカンナッツの樹木が東西方向に 35 フィート (10.7 m) ごと、南北方向に 20 フィート (6.1 m) ごとに8866本植えられており、図 2 に示すように、「Western」、「Wichita」、「Waco」と呼ばれる種類のピーカンナッツの樹木が東端から 2 列が「Western」、次の 5 列が「Wichita」、次の 2 列が「Waco」の順序で西端まで続いている。

図2 米国アリゾナ州サンシモンのピーカンナッツの果樹園
図2 米国アリゾナ州サンシモンのピーカンナッツの果樹園

UAVに搭載された可視近赤外カメラと熱赤外カメラにより撮影された画像に対して以下の処理をおこなっている。

  • 可視近赤外カメラにより撮影された画像に対して標準白色版を用いて観測波長帯域(赤色波長帯域、緑色波長帯域、近赤外波長帯域)ごとに標準化し観測時の日射量を補正した。
  • 可視近赤外カメラと熱赤外カメラにより観測された画像は、GPS ロガーの位置と時間の情報が関連付けられており、観測地点が把握できるようにした。

2.2 樹高マップの作成

樹高は、観測された画像からDSM(Digital Surface Model)を作成し推定された。DSMはオーバーラップした観測画像からSfM (Structure from Motion)により作成される。図3にUAVにより推定した樹高と実際に計測した樹高との結果を示した。

図3 UAVにより推定した樹高と実測との比較
図3 UAVにより推定した樹高と実測との比較

図3よりUAVにより推定した樹高は精度が良いことがわかる。

2.3 NDVI マップの作成

ここでは、ピーカンナッツ樹木の状態を評価するために、これまでリモートセンシングの分野で植生の状態を評価するために多く使用されてきた植生指数のひとつであるNDVI(Normalized Difference Vegetation Index)を用いた。NDVI は、可視の赤色光を吸収し、近赤外光を反射する植物の特性を利用した植生指数であり次式で表せる。
NDVI = (NIR – R) / (NIR + R)       (1)
ここで、NIR と R はそれぞれ近赤外光と可視域の赤色光の反射率で、この値は -1 ~ 1 の範囲を示し、UAVのように高空間分解能で観測できる場合、葉のクロロフィル量が多いと 1 に近い値になる6)-9)。また、本研究における対象地域ではピーカンナッツの樹木間に生えているカバークロップもピーカンナッツの葉と同様に高いNDVI値を示すため、カバークロップとピーカンナッツの樹木を分離するために、本研究ではDSMを用いてピーカンナッツの樹木を抽出するマスク処理をおこなった。

2.4 熱赤外画像マップの作成

 ここでは、観測された熱赤外画像を用いてピーカンナッツ樹木の評価を実施するためにピーカンナッツの葉を含めた地表面温度マップを作成した。熱赤外画像による地表面温度マップは8ビットデータで観測され、その観測の位置情報のずれにより画像の重なり部分が完全に一致しなかったため、本研究では、各画像の位置をGISソフトにより手作業で補正し、モザイク画像を作成した。

次回に続く-

参考文献

  1. 佐鳥新,ハイパースペクトルの活用と技術動向. 農業機械学会誌 70(3), pp.26-31 (2008).
  2. 李民賛, 笹尾彰, 澁澤栄, & 酒井憲司, NIR反射スペクトルによる土壌パラメータの推定. 農業機械学会誌 62(3), pp.111-120 (2000).
  3. David J. Mulla, Twenty five years of remote sensing in precision agriculture: Key advances and remaining knowledge gaps. BIOSYSTEMS ENGINEERING, 114, pp.358-371(2013).
  4. Chunhua Zhang, John M. Kovacs, The application of small unmanned aerial systems for precision agriculture: a review. Precision Agriculture, 13, pp.693-712(2012).
  5. H. Yamagata, K. Noda, J. J. Randall, H. Kamiya, K. Oki, Consecutive monitoring method for pecan orchards and discovery of a mysterious circle in a pecan orchard with UAV .Optical Review, 28 738-744(2021).
  6. Benedetti, R., Rossini, P., On the use of NDVI profles as a tool for agricultural statistics: the case study of wheat yield estimate and forecast in Emilia Romagna. Remote Sens. Environ. 45, 311–326(1993).
  7. Weier, J. and Herring, D.,Measuring Vegetation (NDVI & EVI) Earth Observation. NASA,(2000).https://earthobservatory.nasa.gov/Features/MeasuringVegetation/. Accessed 3 September 2022
  8. Hunt, E.R., Cavigelli, M., Daughtry, C.S.T., McMurtrey, J.E., Walthall, C.L., Evaluation of digital photography from model aircraft for remote sensing of crop biomass and nitrogen status. Precis. Agric. 6, 359–378 (2005).
  9. Swain, K.C., Jayasuriya, H.P.W., Salokhe, V.M., Suitability of low-altitude remote sensing images for estimating nitrogen treatment variations in rice cropping for precision agriculture adoption. J. Appl. Remote Sens. 1, 013547 (2007).

【著者紹介】
沖 一雄(おき かずお)
京都先端科学大学工学部 教授
東京大学生産技術研究所 特任教授

■略歴
1997年筑波大学大学院社会工学研究科博士課程修了後、国立環境研究所、群馬大学工学部、東京大学大学院農学生命科学研究科、東京大学生産技術研究所と異動し、現在、京都先端科学大学工学部および東京大学生産技術研究所に所属している。また、途中、イタリア・イスプラにあるJoint Research Centreへの研究留学や、数年間の内閣府総合科学技術会議へ出向(併任)の経験を持つ。研究では、一貫して環境、農業分野における衛星リモートセンシング手法の開発に従事してきたが、この頃、農業生産者に役立つドローンでのリモートセンシング手法の開発にも興味を持ち、是非、農学と工学の融合による食料生産技術分野の確立に貢献したいと思っている。食料生産技術研究会を運営中。

自然災害発災初期の対応におけるドローン活用の動向と期待(1)

国立研究開発法人
防災科学技術研究所
内山 庄一郎

1.はじめに

近年、災害対応のさまざまなフェーズ(※)においてドローン等の機械技術の活用が試行され、その社会的ニーズも高まりつつある。しかし、人命救助を行う災害の初期対応のフェーズでは、消防、警察、自衛隊など、危険地での活動訓練を受けた公的機関によってのみ行われているため、人命救助活動の現場には、民間企業等が有する最新の科学技術や知見が十分に投入されてきたとはいえない。実際に、人命救助活動ではいまだ人海戦術の割合が大きい。活動の迅速化・効率化、隊員の安全向上に向けて現場活動の現状を変えていくために、ドローンやセンシング技術のさらなる活用が期待される。そこで本稿では、近年の豪雨災害の高頻度化によって各地で懸念が高まっている土砂災害をターゲットとして、災害発生直後の初期対応におけるドローン活用の現状と課題を紹介し、この分野で求められるセンシング技術について考察する。

※防災に関する対応や対策などの様々な活動は、時系列として「平時の予防」「災害発生直後の初期対応」「復旧」「復興」の4つの大きなフェーズの中で実施される。それぞれのフェーズにおいて、多様な主体が、異なる専門性を持って活動を展開している。「ドローンの防災活用」のような言い回しを耳にする機会は多いが、この表現では、どのフェーズで、どんな主体が、何のためにドローンを活用したいのかが分からない。このため、防災を語る場合には、フェーズと主体を特に意識して議論をすると論点が明確になる。

2.災害初期対応で使用されるドローン

ドローン技術の実証実験のニュースでは実に多様なドローンの使い方が試行されている一方で、消防機関等の現場に導入されたドローンの多くは、100万円未満の民生用機で、光学カメラや熱赤外カメラを搭載したものが多い。また、災害直後のオルソ画像(写真地図)の作成のために、自動航行機能を備えたものもある(オルソ画像については、内山(2022)1)を参照されたい)。そうしたドローンの一般的な性能として、2022年度に消防庁から配備された小型空撮ドローンを例に挙げる(表1)。

表1 消防機関で活用される小型ドローンのスペックの例(ACSL(2022)から抜粋)
寸法(アーム展開時) 637mm×560mm(プロペラ含む)
最大離陸重量 2,000g
最大飛行時間 25分(標準カメラ搭載、風速8m/s条件)
最大伝送距離 4km(障害物や電波干渉がない場合)
防塵・防水性能 IP43
標準カメラ 動画4K対応、静止画2,000万画素
機能 自動飛行、画像トラッキング、3方向センサによる衝突回避
セキュリティ対策 フライトログ・撮影データ漏洩防止、通信暗号化

現在の災害初期対応を行う機関の多くは、この例に近い性能の機体を使用していると考えてよい。このクラスの小型ドローンは、プロペラの騒音が小さく、ダウンウオッシュの影響もほぼないため、地上で活動する部隊への影響が少ない。垂直離着陸とホバリングができる機体は、操縦スキルが低い者でも運用できる。そして、Li-Poバッテリーを動力とする電動機は、整備に高度な専門技術や設備を必要としない。運用においては、飛行時間が短いために、飛行する場所まで機体・備品・運航チームを移動させる必要がある。このため、機体サイズが小さいほど機動性が高くなる。車両や防災ヘリなどの貨物スペースに機体を積めることも運用において重要なポイントになる。

3.土砂災害における初期対応の流れ

まず土砂災害における活動の流れと全体像(図1)を紹介し、次章で個々の段階で行われる活動の課題を整理する。 土砂災害の初期対応では、現場到着後に情報収集と検索活動を単独あるいは同時並行で実施する。その目的は、要救助者・行方不明者の人数と位置の特定・推定、および二次災害リスクから活動する隊員の安全を確保することである。次に、救助活動の要否、救出方法と優先順位を判断・決定し、救助活動を実施する。救助活動は、表面検索、空間検索、最終検索の順で捜索範囲を二次元的、三次元的に拡大していく。

図1 土砂災害における現場活動の流れ
図1 土砂災害における現場活動の流れ

情報収集は、要救助者に関するものと活動場所の評価に関するものとの2種類がある。119番通報の情報では断片的なため、被災した家屋が分かればその同居者や周辺住民、地域に詳しい消防団員、被害の目撃者等へヒアリングを行う。行方不明者の全容が把握できない場合は、警察や自治体の持つ情報に加えて、避難所での聞き取りも実施することもある。活動場所の評価に関する情報収集では、土砂災害の種類、気象、ハザードマップ等の地図、災害前の空中写真、災害後のドローン写真、防災ヘリからの報告と映像、地上から見える範囲での危険情報などを取得する。

土砂災害の種類は崖崩れ、土石流、地すべりの3種があり、まずはこの種類を特定する必要がある。次に、土砂の流出地点、流出方向、到達範囲、土砂の水分量、流木や瓦礫の量、住宅の被害状況、道路の通行可否に加えて、土砂に巻き込まれた要救助者の被災位置を検討し、要救助者がいる可能性が高い場所を絞り込む。要救助者の被災状況としては、建物上層への垂直避難による逃げ遅れ、流出した家屋や住宅低層部あるいは車両への閉じ込め、屋外にいた場合には土砂流に直接巻き込まれるといった被災状況が想定される。

検索活動には3種類あり、目視と呼びかけで行う表面検索、要救助者がいる可能性の高い住宅の内部に進入する空間検索、重機を使用して瓦礫や土砂を撤去する最終検索の順に実施する。土砂などに圧迫され声が出せない状況も想定されるため、サイレントタイムを設けて車両、ヘリコプター、呼びかけなどを停止させることもある。要救助者の携帯電話番号が分かった場合は、電話の呼び出し音を探す方法もとられる。空間検索では、要救助者が土砂や瓦礫に閉じ込められていることが想定されるため、内視鏡のような画像装置、地中音響・電磁波・二酸化炭素などの各種探査装置、熱赤外カメラなどの様々なセンサを用いる。また、住宅への進入の際は、住宅の崩落による二次災害を防ぐため、瓦礫や障害物の除去による避難路の確保と、進入路を安定させる支柱の設置を行う。ここまでの活動で発見できない要救助者がいる場合には、最終検索として土砂や瓦礫を大規模に除去し、被災範囲全体について再度検索を行う。



次回に続く-



参考文献

  1. 内山庄一郎 (2022)オルソ画像作成の基礎, 災害対応におけるドローンの有効活用に向けた勉強会(第1回), 2022年2月4日, 防災科学技術研究所.
    http://id.nii.ac.jp/1625/00002381/
  2. ACSL(2022)小型空撮ドローン(SOTEN).
    https://product.acsl.co.jp/product/post-369/


【著者紹介】
内山 庄一郎(うちやま しょういちろう)
防災科学技術研究所 マルチハザードリスク評価研究部門 特別研究員

■略歴
1978年宮城県仙台市生まれ。博士(環境学、東京大学)。2003年より現職。
ドローンによる災害状況把握技術の開発と社会実装に従事。地すべり地形分布図(2014年完了)、災害事例データベース(2012年)、防災科研クライシスレスポンス(現bosaiクロスビュー、2012年)の設計と構築を行った。著書「必携ドローン活用ガイド」など。

IoT時代の自動飛行ドローンの高信頼化(1)

吉本 丈
大阪大学
大学院情報科学研究科
吉本 丈
谷口 一徹
大阪大学
大学院情報科学研究科
谷口 一徹

1. はじめに

 近年、無線通信技術の発達により、身の回りにある様々なものがインターネットと繋がり多様な情報を入手可能なIoT (Internet of Things) 時代が到来した[1,2,3]。これにより、クラウドの潤沢な計算資源とエッジの多様な情報を活用することで、様々なサービスが実現可能になる。自動飛行ドローンは次世代アプリケーションの1つとして大きな注目を浴びている[4,5]。自動飛行ドローンを利用するメリットは、作業を自動化できること、人が立ち入れない場所にも入れることである。そのため、自動化された荷物配送や肥料の自動散布、上空からの撮影や危険物への接写等の様々な目的での利用が検討されている[6,7,8,9]。
 このような自動飛行ドローンを安全に運用するためにはIoTの恩恵を受けてクラウドと連携した高度な飛行管制が重要である。既に1km2の範囲内で100機のドローンを衝突させること無く制御することに成功した例が報告されている[10]。また飛行中の障害物に関しても、イベントカメラなどを用いて低遅延での物体認識を行うことでその回避が可能となっている[11]。
 自動飛行ドローンは自動運転車と比較して実現するためのハードルが非常に高い[12]。例えば経路決定において、自動運転車は地図を用いて二次元的に経路決定を行うのに対して、自動飛行ドローンは飛行高度設定が自由であり三次元的な経路決定を行うため解空間が膨大である。加えて、運行中に発生する障害要因は自動飛行ドローンの方が圧倒的に多い。自動運転車の障害要因としては車体トラブルや路上の障害物との衝突が考えられる。それに対し、自動飛行ドローンでは電波消失やGPSの故障、カメラの故障などの機体トラブルや全方向からの障害物に加えて、ゲリラ豪雨や突風などの気象環境の急変によって飛行不能な状況に陥るケースも考えられる。これらの障害は飛行状況によってさまざまな発生パターンが考えられいつ発生するかも全く分からない。このように様々な障害の可能性があり、経路選択の制約が緩い自動飛行ドローンにおいて、すべての障害要因を事前に想定して回避することは不可能である。
 加えて、これらの事態の対応に許される時間はとても短い。自動車の急ブレーキを例に挙げると、ドライバーが急ブレーキを踏むまでの意思決定には約1秒間を要することが報告されている[13]。もし人と同程度の意思決定を自動飛行ドローンでも実現するならば、先に述べた事象の対応に許される処理時間は約1秒間となる。しかし、クラウドで処理を行う場合、通信遅延の影響は避けられず、通信遅延も含めて約1秒間という時間で結果を得ることは現実的に極めて困難である[14]。
 自動飛行ドローンの高信頼化のためには、高信頼化を実現するさまざまなアプリケーションとそれを処理するエッジ・クラウド間の高度な連携が必要である。そこで本稿では、エッジ・クラウド連携に関する最先端の研究事例を紹介するとともに、我々の研究グループで取り組んでいるタスクマッピング手法の一例を紹介し、今後の方向性について述べる。

2. エッジ・クラウド連携に関する研究動向

 IoTの普及によりエッジとクラウドの連携の重要性が広く知られている。クラウドサーバは、IoTデバイスよりもはるかに潤沢な計算資源とストレージ資源を持っているため、計算集約型のタスクをクラウドサーバに移行することでIoTデバイスの軽量化に大きく貢献する。クラウドサーバ上で計算するために、IoTデバイスとクラウドはMAUI[15]やThinkAir[16]などのオフロード・フレームワークを動作させる必要がある。これらのフレームワークにより、IoTデバイスはさまざまなタスクを状況に応じて異なるアーキテクチャを持つクラウドサーバにもオフロードできる。
 しかし、クラウドサーバはIoTデバイスから論理的・空間的に離れているため通信遅延の増大が課題として知られている。このような通信遅延がIoTデバイスの性能の大きなボトルネックとなっており、時にはシステム全体に致命的な影響を及ぼす場合もある。自動飛行ドローンにおいては、このような通信遅延の増大により致命的な事態に陥ることもあり、通信遅延を如何に小さくするか、通信遅延が大きくなったとき如何に被害を最小に抑えるかの研究が盛んに行われている[17]。
 Tongらは、エッジデバイスとクラウドサーバの間に複数のサーバを階層的に配置することで通信遅延時間を抑えつつクラウド資源を効率的に活用する手法を提案した[18]。この手法ではエッジデバイスとの通信遅延時間ができるだけ小さくなるよう下位階層のサーバは人が集まりやすい場所に設置される。下位階層のサーバの計算資源が枯渇すると、より潤沢な計算資源を有する上位サーバへと順にオフロードすることでピーク時も効率的にタスク処理が可能である。
 Dinhらは、タスクマッピングとCPU周波数を協調して最適化することによりIoTデバイスの消費エネルギーとタスクの実行時間を最効率化する手法を提案した[19]。従来のIoTデバイスのタスクオフロードに関する研究では消費エネルギーとタスクの実行時間のいずれかのみの最適化が一般的であるが、Dinhらの手法は同時最適化を可能としている。
 Liらは、タスクの通信遅延制約を考慮して各タスクが最大許容遅延時間前にサービスを提供できることを保証しながら、タスクオフロードのコストを最小化する手法を提案した[20]。この手法ではタスクをハードデッドラインかソフトデッドラインかで分類し、ハードデッドラインなタスクは優先的に計算資源が割り当てられる。これにより、最大許容遅延時間を満たしたタスクオフロードが可能となる。
 これらの研究はIoTシステムの通信遅延に関する課題をさまざまな方向から解決するものである。これらの研究では与えられたすべてのタスクは実行することが大前提となっており、そのための方策を提案している。一方、ドローンの高信頼化の観点では、通常時に実行していた全てのタスクを緊急時にも全て実行することは必ずしも重要ではなく、重要 度の高いタスクのみを確実に実行して致命的な状況さえ回避できれば良いという考え方もある。次章では我々の研究グループで取り組んでいるタスクマッピング手法の一例を紹介する。



次回に続く-



参考文献

  1. J. Gubbi, R. Buyya, S. Marusic, and M. Palaniswami, “Internet of Things (IoT): A vision, architectural elements, and future directions,” Future generation computer systems, vol. 29, no. 7, pp.1645–1660, 2013.
  2. I. Lee and K. Lee, “The Internet of Things (IoT): Applications, investments, and challenges for enterprises,” Business Horizons, vol. 58, no. 4, pp. 431–440, 2015.
  3. P. Schulz, M. Matthe, H. Klessig, M. Simsek, G. Fettweis, J. Ansari, S. A. Ashraf, B. Almeroth, J. Voigt, I. Riedel, A. Puschmann, A. Mitschele-Thiel, M. Muller, T. Elste, and M. Windisch, “Latency critical IoT applications in 5G: Perspective on the design of radio interface and network architecture,” IEEE Communications Magazine, vol. 55, no. 2, pp. 70–78, 2017.
  4. N. H. Motlagh, M. Bagaa, and T. Taleb, “UAV-based IoT platform: A crowd surveillance use case,” IEEE Communications Magazine, vol. 55, no. 2, pp. 128–134, 2017.
  5. A. D. Boursianis, M. S. Papadopoulou, P. Diamantoulakis, A. Liopa-Tsakalidi, P. Barouchas, G. Salahas, G. Karagiannidis, S. Wan, and S. K. Goudos, “Internet of things (IoT) and agricultural unmanned aerial vehicles (UAVs) in smart farming: a comprehensive review,” Internet of Things, p. 100187, 2020.
  6. P. Radoglou-Grammatikis, P. Sarigiannidis, T. Lagkas, and I. Moscholios, “A compilation of UAV applications for precision agriculture,” Computer Networks, vol. 172, p. 107148, 2020.
  7. F. Al-Turjman and S. Alturjman, “5G/IoT-enabled UAVs for multimedia delivery in industry-oriented applications,” Multimedia Tools and Applications, vol. 79, no. 13, pp. 8627–8648, 2020.
  8. M. Erdelj, E. Natalizio, K. R. Chowdhury, and I. F. Akyildiz, “Help from the sky: Leveraging UAVs for disaster management,” IEEE Pervasive Computing, vol. 16, no. 1, pp. 24–32, 2017.
  9. D. Orfanus, E. P. de Freitas, and F. Eliassen, “Self-organization as a supporting paradigm for military UAV relay networks,” IEEE Communications letters, vol. 20, no. 4, pp. 804–807, 2016.
  10. “ロボット・ドローンが活躍する省エネルギー社会の実現プロジェクト,” https://nedo-dress.jp/ (Last accessed: 10 Jan. 2022).
  11. Y. Zhou, G. Gallego, H. Rebecq, L. Kneip, H. Li, and D. Scaramuzza, “Semi-dense 3D reconstruction with a stereo event camera,” Proc. of European Conference on Computer Vision (ECCV), 2018, pp. 235–251.
  12. K. Wackwitz and H. Boedecker, “Safety risk assessment for UAV operation,” Drone Industry Insights, Safe Airspace Integration Project, Part One, Hamburg, Germany, 2015.
  13. “Speed management: a road safety manual for decision-makers and practitioners,” https://apps.who.int/iris/bitstream/handle/10665/43915/9789275317099_por.pdf (Last accessed: 10 Jan. 2022).
  14. E. K. Markakis, K. Karras, A. Sideris, G. Alexiou, and E. Pallis, “Computing, caching, and communication at the edge: The cornerstone for building a versatile 5G ecosystem,” IEEE Communications Magazine, vol. 55, no. 11, pp. 152–157, 2017.
  15. E. Cuervo, A. Balasubramanian, D.-k. Cho, A. Wolman, S. Saroiu, R. Chandra, and P. Bahl, “MAUI: making smartphones last longer with code offload,” Proc. of International Conference on Mobile Systems, Applications, and Services, 2010, pp. 49–62.
  16. S. Kosta, A. Aucinas, P. Hui, R. Mortier, and X. Zhang, “ThinkAir: Dynamic resource allocation and parallel execution in the cloud for mobile code offloading,” Proc. of the IEEE INFOCOM, 2012, pp. 945–953.
  17. P. Mach and Z. Becvar, “Mobile edge computing: A survey on architecture and computation offloading,” IEEE Communications Surveys & Tutorials, vol. 19, no. 3, pp. 1628–1656, 2017.
  18. L. Tong, Y. Li, and W. Gao, “A hierarchical edge cloud architecture for mobile computing,” Proc. of the IEEE INFOCOM 2016-The 35th Annual IEEE International Conference on Computer Communications, 2016, pp. 1–9.
  19. T. Q. Dinh, J. Tang, Q. D. La, and T. Q. Quek, “Offloading in Mobile Edge Computing: Task Allocation and Computational Frequency Scaling,” IEEE Trans. on Communications, vol. 65, no. 8, pp. 3571–3584, 2017.
  20. R. Li, Z. Zhou, X. Chen, and Q. Ling, “Resource price-aware offloading for edge-cloud collaboration: A two-timescale online control approach,” IEEE Trans. on Cloud Computing, 2019.


【著者紹介】

吉本 丈(よしもと じょう)
大阪大学 大学院情報科学研究科 博士前期課程

■略歴
2020年3月 大阪大学 工学部 電子情報工学科 卒業
2022年3月 大阪大学 大学院情報科学研究科 博士前期課程修了
IoTシステムの設計技術に関する研究に従事。

谷口 一徹(たにぐち いってつ)
大阪大学 大学院情報科学研究科 准教授

■略歴
2002年3月 石川工業高等専門学校 電子情報工学科 卒業
2004年3月 大阪大学 基礎工学部 情報科学科 卒業
2006年3月 大阪大学 大学院情報科学研究科 博士前期課程修了
2007年〜2008年 Katholieke Universiteit Leuven (IMEC)にてInternational Scholar
2009年3月 大阪大学 大学院情報科学研究科 博士後期課程修了、博士(情報科学)
2009年4月〜2017年1月 立命館大学理工学部 助教及び講師
2017年2月 大阪大学大学院情報科学研究科 准教授、現在に至る
VLSI設計技術、システムレベル設計方法論、低消費電力設計技術、サイバーフィジカルシステム設計方法論、次世代アプリケーションなどに関する研究に従事。IEEE、ACM、電子情報通信学会、情報処理学会 各会員。

水空合体ドローンの音響測位技術(1)

川田 亮一
(株)KDDI 総合研究所川田 亮一
西谷 明彦
(株)KDDI 総合研究所西谷 明彦
小島 淳一
(株)KDDI 総合研究所小島 淳一

1 はじめに

 近年、日本ではインフラの老朽化 (図 1) が問題となっており、港湾施設や橋脚等の水域インフラも例外ではない。これらの点検は、潜水士が水に潜って担うが、高齢化に伴う人材不足や安全確保が課題となっている。また水産業においても、養殖場の巡回点検を頻繁に行う必要があるが、漁業従事者の減少により人手不足 (図 2) が課題になっている。

図 1 日本のインフラの老朽化状況 [1]
図 1 日本のインフラの老朽化状況 [1]

 これらの課題に対応するため筆者らは、「水空合体ドローン」を試作した [3, 4]。これは、空中ドローンが水中ドローンを抱えて飛んでいき、作業水域で水中ドローンが離脱・潜航、作業終了後にそれを回収、離水して再び陸上拠点に戻ってくるというものである (図 3)。作業水域への往復は LTE を介した自動飛行で行い、また LTE 経由で水中映像をリアルタイムで陸上から監視可能である。
 このシステムを実用化するためには、水中ドローンの位置が陸上拠点から把握できなければならない。その主な理由は次の 2 点である。(1) 水中ドローンを遠隔から操縦するために必要。(2) 送られてきた水中映像で異常個所が発見できたとしても、それがどこかわからないと、直すために潜った潜水士がまた場所を探すところから始めなければならなくなる。
 水中では GPS は使えないので、音響測位技術を利用する。本稿では、この私たちの水空合体ドローンに搭載している音響測位技術 [5, 6] について説明する。

図 2 日本の漁業従事者の減少状況 [2]
図 2 日本の漁業従事者の減少状況 [2]
図 3 水空合体ドローン運用の概念図
図 3 水空合体ドローン運用の概念図

2 水空合体ドローンとその音響測位への要件

 図 4 と表 1 にそれぞれ試作した水空合体ドローンの写真と主要諸元を示す。このように中サイズの空中ドローンの下部に開閉可能なケージを取り付け、そこに市販の水中ドローンを格納している。水中ドローンと空中ドローンはテザーケーブルで接続されており、ここを制御信号及び映像信号が通る。水中ドローンの作業範囲としては、空中ドローンから数十メートルの範囲を想定している。
 空中ドローンは LTE 回線を有し、KDDI スマートドローンプラットフォーム [7] のもとで動作する。陸上の拠点から目的の水域まで自動飛行し、着水する。その後はオペレータが水中ドローンの離脱・潜航・作業後の回収を遠隔で操作する (図 3)。その間、水中ドローン及び空中ドローンからの映像が LTE 経由で陸上拠点へ生中継される (図 5)。また水中ドローンと空中ドローンの位置が図 6 のように表示される。
 以上のような水空合体ドローンにおける水中ドローンの測位に関しては、次のような要件があげられる。

  • 水中ドローン側はもちろんのこと、空中ドローン側も装置は小さく軽いことが重要である。
図 4 水空合体ドローン
図 4 水空合体ドローン
表 1 水空合体ドローンの主要諸元
空中ドローン サイズ 1640mm×1640mm×760mm
重さ 21kg(水中ドローン含む)
耐風性 最大風速 10m/s
飛行時間 最大 15 分間
飛行速度 40km/h
水中ドローン
(QYSEA FIFISH V6 PLUS)
サイズ 383mm×331mm×143mm
重さ 5kg
潜水深度 最大 150m
最大稼働時間 最大 5 時間
速度 最大 1.5m/s
テザーケーブル 12m(実験用に付替え)
  • 浅海域でも正確に測定できる必要がある。すなわち、反射波等の妨害に強い必要がある。
  • 空中ドローン・水中ドローンのコスト感に合うものである必要がある。つまり従来の同等の音響測位装置に比べて低コストである必要がある。したがって INS(慣性航法装置) 等の高価な装置は望ましくない。
  • 今後はダイバーとドローンが同時に作業したり、複数のドローンが同時に作業したりするようになることが想定される。この場合複数のターゲットを同時に測位する必要がある。
図 5 空中ドローン (左) および水中ドローン (右) からの映像
図 5 空中ドローン (左) および水中ドローン (右) からの映像
図 6 運用者に表示される地図。空中ドローン (緑) と水中ドローン (赤) の現在の位置が表示される。
図 6 運用者に表示される地図。空中ドローン (緑) と水中ドローン (赤) の現在の位置が表示される。


次回に続く-



参考文献

  1. 国土交通省:“社会資本の老朽化の現状と将来”,
    https://www.mlit.go.jp/sogoseisaku/maintenance/02research/02_01.html (参照 2022-09-04).
  2. 水産庁:“令和 3 年度水産白書”, https://www.jfa.maff.go.jp/j/kikaku/wpaper/index.html (参照 2022-09-04).
  3. 西谷, 川田, 小島, 三輪, 松木, 博野:“水空合体ドローンの開発”, 日本ロボット学会学術講演会, No. 1B4-1 (2021).
  4. A. Nishitani, R. Kawada, J. Kojima and K. Yoshihara: “Development of combined aerial and underwater drone system”, Proc. IEEE Oceans (2022).
  5. 川田, 西谷, 小島:“水空合体ドローン向け音響測位方式の検討”, 海洋音響学会研究発表会講演論文集, No. 22-2, pp. 3–4 (2022).
  6. R. Kawada, A. Nishitani and J. Kojima: “Acoustic positioning system of combined aerial and underwater drones”, Proc. IEEE Oceans (2022).
  7. 博野, 松木, 杉田, 田中:“スマートドローン実現に向けた取組み”, 電子情報通信学会誌, Vol.102, No.6, pp. 517–519 (2019).


【著者紹介】

川田 亮一(かわだ りょういち)

■略歴
1991年,東大大学院了.同年,現KDDI入社,研究所に勤務.映像処理,特に動き補正TV方式変換,画質評価/監視,画像符号化などの研究 開発に従事.1997~1998年,米コロンビア大客員研究員.2014~2016年,慶大SFC上席研究員(W3Cフェロー).2016~2018年,内閣府上席政策調査員.現在,水空合体ドローンの音響測位技術の研究開発に従事.博士(工学).

西谷 明彦(にしたに あきひこ)

■略歴
1986年,鹿児島県立鹿屋高卒.現 KDDI 入社後は,OSI 通信,分散システム,サイレント障害検知技術に関する研究に従事後,研究フィールドを海洋に移す.2016年より深海探査技術の世界大会に,日本チーム(Team KUROSHIO)の一員として挑戦.2019年より海中光無線技術の応用研究,水空合体ドローンの開発等に取り組み中.

小島 淳一(こじま じゅんいち)

■略歴
1981年,東工大大学院工学研究科修士課程了,国際電信電話株式会社(現KDDI株式会社)入社,海底ケーブルの保守・点検に関連する研究開発に従事.海底ケーブル調査・点検用の自律海中ロボット(AUV)を開発.近年は水中音響技術を応用した研究開発を行う.2021年,定年退職し現在に至る.2016年,科学技術賞(開発部門)受賞,IEEE会員.

防犯カメラ等の映像から浸水状況を即時把握するAI解析モデルを開発『リアルタイムハザードマップ』

応用地質(株)は、創立メンバーとして参加する『防災コンソーシアム(CORE)』(※1)の分科会の取組みとして、防災IoTセンサやSNSなどからリアルタイムに取得する自然災害に関する情報に加え、カメラ映像から発災の予兆や状況を捉えるAI解析技術を活用し、従来の静的なハザードマップから進化した『リアルタイムハザードマップ』の開発を進めている。
このたび、『リアルタイムハザードマップ』分科会(※2)として、防犯カメラ等の映像から浸水状況を即時把握するAI解析モデルを開発したとのこと。

今回開発したAI解析モデルは、深層学習(※3)手法の一つである畳み込みニューラルネットワーク(CNN)(※4)を利用した画像解析技術を使用したもので、防犯カメラがとらえた対象物を画像から判断し、水面の位置を把握することで浸水深を解析するもの。
本分科会ではさらなる実証実験を行い、より精度の高い『リアルタイムハザードマップ』の開発・提供につなげ、水災時の被害極小化に貢献するとしている。

※1: 2022年4月20日ニュースリリース:「防災コンソーシアム(CORE)」を始動
https://www.oyo.co.jp/oyocms_hq/wp-content/uploads/2022/04/20220420_news-release_oyo.pdf
※2: 分科会参加企業:応用地質(株)、(株)パスコ、セコム(株)、東京海上日動火災保険(株)
※3: 機械学習手法のひとつ
※4: 脳の視覚野の構造における知見を基に設計されている手法

1.背景
近年、日本の全国各地で甚大な被害をもたらす自然災害が頻発している。特に台風や豪雨によって引き起こされる水災や土砂災害は、今後の地球温暖化の進行等により、さらに増加していくと予想されている。
本分科会では、災害の到来をよりリアルに認識し、適時の防災行動を促す仕組みの一助となる『リアルタイムハザードマップ』の開発を目指している。

2.これまでの取り組み
本分科会では、2022年5月、国立研究開発法人 防災科学技術研究所の大型降雨実験施設において、防犯カメラを用いた浸水の発生検知や浸水深を把握するための、映像解析モデルの開発に向けた実証実験を行った。

■大型降雨実験施設での実証実験概要〔画像〕
【実施日】  2022年5月19日(木)
【実験内容】 降雨時における防犯カメラ映像のAI解析の検証と教師データの取得と防犯カメラの映り方の確認
① 実験施設内で時間雨量15mmから300mm(※5)までの降雨を発生させ、施設内に設置したプール内の浸水状況をセコムの防犯カメラで撮影してモニタリング。
※5: 日本観測史上最大の時間雨量は153mmで千葉県香取(1999年10月27日)、長崎県永浦岳(1982年7月23日)
② 撮影した映像から対象物を識別して浸水深を解析するAI解析技術の開発をパスコが担当。試作版で検証を実施
③ 応用地質の防災IoTセンサで計測した実際の浸水深データとカメラ映像の解析値の比較検証を実施

実証実験後にデータ検証を進めた結果、開発したAI解析技術によって把握した対象物の解析浸水深と、防災IoTセンサの計測値との誤差が数cm以内であったことから、発災の予兆や状況を捉えるという用途として十分に活用可能な技術であることが確認でき、実証実験は成功した。

3.今後について
本分科会では2019年10月の大雨で多くの被害を受け、防災対策に力を入れている千葉県茂原市の協力を得て、2022年10月よりフィールド検証を実施する。検証は映像解析モデルの精度向上を目的としたもので、洪水ハザードマップをもとに浸水が懸念される地点に防犯カメラを設置して実施する予定。
また、当社は、併せて防災IoTセンサを設置し、カメラ映像とセンサデータとの連携やユースケースについても更なる実証を進める。
今後は、実証実験で得られた技術の実装に向けた取組みを加速し、2023年度中の『リアルタイムハザードマップ』の事業化を目指すという。

ニュースリリースサイト:https://prtimes.jp/main/html/rd/p/000000056.000047274.html

近接覚センサで協働ロボットの進化をはかるThinkerが1億円の資金調達

Thinker(シンカー)は、大阪大学ベンチャーキャピタル(株)を無限責任組合員とするOUVC2号投資事業有限責任組合(以下「OUVC2号ファンド」)から9月30日付で1億円の資金を調達した。

今回の調達を受けてThinkerでは、半導体向けシリコンウエハーの搬送装置や透明部材のピッキングなどの用途でのロボットハンドへの実装を想定し近接覚センサの量産化を推進する。加えて、今後予定しているサンプルの提供を通じてさらなる用途開発に取り組み、より多くの作業現場への近接覚センサの導入、普及に取り組んでいくという。

投資家からのコメント《OUVC 代表取締役社長 清水速水氏》
「OUVCでは約2年前から、近接覚センサを開発された小山佳祐先生(大阪大学大学院基礎工学研究科助教、現Thinker取締役)とともに起業・ベンチャー化に向けて取り組んできており、ここに投資実行まで至れたことを大変嬉しく思っています。距離・角度を同時計測できるセンサはこれまでにない独自技術で、さまざまな可能性を秘めていると感じています。すでにプロトタイプによって複数の用途開発が進んできており、藤本CEOをはじめとするロボット業界での豊富な経験を持つ経営チームのもと、量産型のセンサー開発によって早期に産業用ロボットへ実装されることを期待しています。」

Thinker代表からのコメント《Thinker代表取締役兼CEO 藤本弘道》
「もし人間が新たな感覚器を得て、“独自に思考する手”を持ったとしたら、世の中の営みに革新が起こるはずです。近接覚センサーを備えたロボットハンドは、まさにそんな存在です。自ら考え、判断するロボットハンドは、さまざまな分野に大きな変化を起こすものと私たちは確信しています。そんな私たちのチームのビジョンに可能性を感じ、投資いただいた大阪大学ベンチャーキャピタルの皆さまに心から感謝申し上げます。これからも『真のロボットの生体化』を実現すべく、邁進してまいります。」

ニュースリリースサイト:https://prtimes.jp/main/html/rd/p/000000004.000106143.html