アーカイブ

i-PRO、21倍PTZカメラ一体型 4眼マルチセンサーAIカメラを発売

i-PRO〔アイプロ〕(株)は、「Xシリーズ」の新ラインアップとして、屋外PTZ(パン・チルト・ズーム)一体型マルチセンサAIカメラを2023年3月に発売する。5MP(メガピクセル)を4眼備えたマルチセンサカメラが360°で死角を最小限に抑えた監視を行い、注視したい被写体には光学21倍ズームを備えた2MP(1080P)のPTZカメラが連携して自動追尾を行える。業界最小・最軽量(※1)の筐体、最大6つ同時使用可能なAIアプリケーションにより、様々な環境やニーズ下での監視業務を幅広く支援するという。

主な特長
1.360°死角を最小限に抑えた監視と同時に、被写体へのパン・チルト・ズームを1台で実現
5MPカメラユニットを4台搭載し360°死角を抑えた監視を実現。また、注視したい被写体には2MP(1080P) 光学21倍ズームPTZにより詳細に被写体を監視できる。従来複数台のカメラ設置が必要だった場所でも1台のカメラで対応できる。

2.高性能なPTZ駆動による高速・高精度撮影 
毎秒高速500°のパン・チルト動作と高い位置精度により、見たい被写体を素早く確実に捉える。プリセット移動中のパン・チルト・ズーム・フォーカスの動作を同時に行い、プリセット時間の極小化を実現している。 防塵防水規格” IP67/IP66 ”や耐衝撃保護等級” IK10 ”に対応。

3.マルチセンサカメラで検知した対象をPTZで自動追尾するカメラ連携を1台で実現
マルチセンサカメラのAIが検知した対象をPTZでスムーズに自動追尾するカメラ連携を1台で実現。従来必要だったジョイスティック操作の代替として、自動で被写体を追尾する。

4.豊富なAIアプリケーション対応
動体検知、ナンバー認識、顔検知、人物属性識別、車両属性識別、状態変化検知等の豊富なAIアプリケーションの中から自由に選択し、マルチセンサ部で最大4つ、PTZ部で最大2つを同時に使用可能(※2)。

5.設置工数を削減
業界最小・最軽量(※1)の筐体を実現、設置に掛かる負担を削減。
1本のLANケーブルですべての映像を伝送できるため、設置時に配線の手間がかからない。

6.データの改ざんやなりすましを防ぐ高いセキュア性能
第3者機関発行の電子証明書(Global Sign®(※3))に加えて、FIPS 140-2 Level3(※4)に認定されたハードウェアを搭載し、データ保護性能を強化。

※1:屋外タイプにおける最小・最軽量。2022年12月時点当社調べ。
※2:AIアプリケーションは別売のオプション。
※3:GlobalSign®はGMOグローバルサイン株式会社の登録商標。
※4:FIPS 140-2は、米国連邦情報処理標準規格(Federal Information Processing Standards)で暗号化モジュールのセキュリティ要件を定めた規格。Level 3は、政府や法執行機関など、高いセキュリティが求められる場所に適したレベル。

プレスリリースサイト(i-PRO):https://newsroom.i-pro.net/ja/202301131

東陽テクニカ、D&V Electronics社と代理店契約「Electric Motor Emulator」発売

(株)東陽テクニカは、電動モビリティ開発向け評価装置のリーディングメーカーである、D&V Electronics Ltd. と、国内代理店契約を締結し、2023年1月12日に、モータエミュレータ「Electric Motor Emulator (エレクトリック モータ エミュレータ)」を発売した。

「Electric Motor Emulator」はモータの数式モデルを設定することで、モータの電気的な挙動を再現できる製品。実物のモータの用意がなくてもインバータの制御確認や信頼性・耐久性の評価を行うことができ、開発工数の削減に貢献する。
東陽テクニカは、D&V Electronics社製品の提供を通して、電気自動車や電動航空機などをはじめとした電動モビリティ開発を支援し、カーボンニュートラルの実現を目指すという。

●主な特長
・実機のモータがなくてもインバータの評価を行うことが可能
・回転体がなく、安全な評価を実現
・20kW~1MWクラスまでの幅広いラインアップ
・ラック1本でモータエミュレータとバッテリエミュレータの両方を具備しており、省スペースで使用可能
・PMモータ、誘導モータ、6相モータの評価も可能
・外部シミュレータとの連動も可能

●製品データ 
・製品名:「Electric Motor Emulator」
・販売開始日:2023年1月12日
・D&V Electronics社メーカー総合ページ:
 https://www.toyo.co.jp/material/maker/detail/dve.html

ニュースリリースサイト:https://prtimes.jp/main/html/rd/p/000000028.000075068.html

姫路城でMR技術を活用した音声アトラクションの実証実験を実施

(一社)関西イノベーションセンター(以下 同社団)と、近畿日本ツーリスト(株)、Mixed Reality(MR)プラットフォーム”Auris(オーリス)”を開発する(株)GATARI は共同で、世界遺産・国宝 姫路城において、MR技術を活用し、訪日外国人を含む子どもから大人まで幅広い人々に楽しめる音声アトラクションの実証実験を実施する。
本取組みは、同社団が運営するイノベーション創出拠点MUIC Kansai(以下 MUIC)の課題解決プログラムとして採択され、大企業やスタートアップをはじめとする様々な企業、自治体およびアカデミアなどとの共創を通じた、課題解決に繋がるビジネス創出を目指すオープンイノベーションプログラムとして進めているという。

●背景
- 関西エリアには、歴史的・文化的背景をもつ観光地が多数存在し、訪れた方にそうした魅力を伝える上で様々なコンテンツが提供されている。
- 一方で、そうしたコンテンツは一定の歴史知識がある方を対象としている事が多く、歴史人物等に関する知識の少ない子どもや訪日外国人を対象としたものが比較的少ないといった課題があった。
- 本施策では、GATARIが開発するMRプラットフォーム”Auris”を活用し、歴史的建造物を観光しながら、まるでゲームや映画の主人公になったような没入型の一人称音楽体験を企画し、実証する。
- 2018年から世界遺産・国宝 姫路城の運営管理業務を受託する近畿日本ツーリストは協業を通じ、GATARIのMR 技術や体験設計を現地の貴重な文化遺産と掛け合わせることで、その賑わいの呼び戻しと、更なる体験価値向上に取組む。また、今年12月の姫路城世界遺産登録30周年に向けてAuris を採用することで、XR 技術が文化財保護とその魅力発信を両立させる観光DX 施策の推進を加速させるとともに、歴史知識の有無に限らず、幅広い人々に歴史的建造物等への関心を持ってもらうことで、更なる魅力ある地域の賑わい、活性化を目指す。

【Aurisとは】
『Auris』は空間のスキャンから空間編集(トリガーとアクションの配置)、クラウドへの保存、マルチプレイヤーでの復元・体験までをスマートフォンのアプリケーション上でワンストップで実現可能な世界初のMixed Realityプラットフォーム(iOSアプリケーション/iOS11以降、iPhone8以降に対応)。2021年11月には特許(第6975489号)を取得。
- スキャンした施設のデジタルツインとスマホカメラで取得した現実の風景を照合して位置測位を行うため、ビーコンやセンサの設置などを行う必要がなく、文化財なども傷付けずに、既存設備を生かした状態で空間の体験価値を向上させることができる。
『Auris』公式HP:https://auris-ar.com/

●実証実験の内容
実施期間:2023年1月21日(土)、22日(日)
実施場所:姫路城天守閣(住所:兵庫県姫路市本町68番地)
体験人数:各日10名程度
実施対象:・子様連れの人(大人の人も一緒に体験頂できる)
     ・訪日観光客の人
体験料金:無料 ※別途、入城料が必要。

- 本実証では、MR技術を活用した音声アトラクションの実装に向け、技術面・運用面の検証を行う事を目的としており、また実証を通じて頂いたフィードバックを基に、より良いコンテンツの制作を進める。

- 本協業をきっかけとし、国内外問わず、老若男女幅広い人々に親しまれる姫路城を目指すとともに、2025年の大阪・関西万博に向けてますます活気づく関西エリアの魅力向上にも貢献する。

ニュースリリースサイト:https://prtimes.jp/main/html/rd/p/000000035.000034007.html

高齢者施設の安心・安全をAIで見守る転倒検知システム「mirAI-EYE(ミライアイ)」

グローリー(株)は、赤外線3次元センサを活用し、人の骨格から姿勢を正確に認識できるAI画像認識技術を開発した。
この度、その技術を応用した高齢者施設などの居室を見守る転倒検知システム「mirAI-EYE(以下、ミライアイ)」を1月10日より発売する。「ミライアイ」は、エコナビスタ(株)と共同開発したもので、エコナビスタが提供する高齢者施設見守りシステム「ライフリズムナビ®+Dr.」(※1)と連携し、高齢者の安全・安心と介護スタッフの負担軽減を実現する画期的なシステムである。

■背景
高齢者施設内における事故のおよそ6割が転倒によるもので、特に早朝や深夜に多く発生しており、介護スタッフは昼夜を問わず居室への見回りが必要となり、深刻な人手不足のなか大きな負担となっている。
従来の居室見守りシステムにおいては、転倒していないのに発報するケースがあった。そこで同社は、さまざまな姿勢を機械学習させたAI画像認識技術により、高齢者の物を拾う動作やベッドに座る動作等を誤検知する問題を解決し、高精度な検知を実現するミライアイを開発した。
本技術は、高齢者施設における質の高い介護や介護現場の生産性向上に貢献するという。

■転倒検知システム「ミライアイ」の特長
1. 転倒事故を早期発見し、介護スタッフの負担を軽減
赤外線3次元センサにより読み取った入居者の姿勢をAIが「転倒」と判断すると、ライフリズムナビ+Dr.と連動し、事務所の管理PCと介護スタッフのモバイル端末へ通知する。
また、「転倒」だけではなく、転倒に至りそうな「起き上がり、端座位、離床、ずり落ち、横たわり」を含めた6動作を検知するため、訪室が必要なタイミングを的確に捉えることができ、介護スタッフの負担軽減と、事故の予防や早期発見が可能である。

2. 赤外線3次元センサで部屋全体の見守りを実現
赤外線3次元センサで用いる電磁波は、太陽光と干渉しない人の目に見えない波長を使っており、直射日光の入る日中や就寝時の真っ暗な居室でも正確に転倒などの検知が可能。また、センサ部は回転し、人の動きを追従するので居室内の広範囲(3m×6m)を見守ることができる。

3. 管理PCに通知履歴を蓄積し、事故の予防に貢献
管理PCで通知履歴、録画映像の保存、閲覧が可能。過去履歴や保存データより詳細な状況を把握、家族等への説明や事故防止策の検討に活用できる。
モザイク設定機能により、プライバシーに配慮した検知やライブ閲覧による見守りも可能。

※1 ライフリズムナビ+Dr.:センサを活用したSaaS型高齢者施設見守りシステム。室内の状況をリアルタイムに把握し、アラート通知を行うほか、収集データより健康レポートも作成。
※ mirAI-EYEは、グローリー株式会社の商標。
※ ライフリズムナビは、エコナビスタ株式会社の登録商標。

ニュースリリースサイト(glory):https://www.glory.co.jp/company/news/detail/id=1979

月面探査車YAOKI、Intuitive Machines社の月着陸船で月の南極へ

月面探査車YAOKIを開発する(株)ダイモンは、月着陸船を開発している米Intuitive Machines社と月輸送に関する契約を締結した。同社の2回目の月輸送ミッション(2023年後半を予定)で、月着陸船Nova-CにYAOKIを乗せ、月の南極に送り込む。月面着陸後、YAOKIは地球からのリモート操作による月面走行および月表面の接写画像データの獲得など、超小型ロボットによる月面運用を実施する。
なお、今回の契約に伴い、弊社はProject YAOKI の計画を一部見直し、CLPS-1においてAstrobotic Technology社の月着陸船PeregrineにYAOKIを乗せ月に送り込む計画を、同社の次回以降のミッションへとスライドすることを決定した。

■経緯
同社では超小型・超軽量の月面探査車YAOKIを開発し、今後の月開発に向けた探査ミッションに挑戦すると共に、安価で高頻度に利用できる月面実験プラットフォームとしてサービスを提供している。継続的に複数台の機体を月に送り込めるよう、月輸送サービスを提供する企業と交渉を進めている。 2019年にAstrobotic Technology社と月輸送の契約を締結していたが、この度、Intuitive Machines社とも契約締結に至った。
YAOKIは1回目の打ち上げでは内臓バッテリー駆動で確実な月面稼働の実績を得て、2回目の打ち上げでは月面充電を実施する事で長期的な稼動を計画している。

■ロケットおよび月着陸船について
今回同社がYAOKIを載せる契約を締結したのは、Intuitive Machines社の Mission 2 (IM-2)となり、2023年後半の打ち上げとして計画されている。ロケットは米Space X社のFalcon 9である。 Intuitive Machines社の月着陸船Nova-Cで輸送され、着地場所は月の南極付近となる。

■YAOKIが提供する価値
今後の国際的な月開発のロードマップとして、月面基地の建設などが計画されており、そのためには月面探査および様々な要素技術の月面実証が必要不可欠となる。しかし現在、月輸送のコストは1kgあたり約1億円以上という相場となっており、大規模な機材になるほど実証実験にかかるコストも大きくなる。それはまた失敗時の損失リスクも大きくなることを意味する。
YAOKIは、超小型・超軽量という特徴を活かすことで、安価に、かつ高頻度に月に送り込むことが可能である。YAOKIには、センサやモーター、バッテリー、通信機など、ロボットに必要な様々な要素技術を搭載し、月面で実証実験することができる。YAOKIを活用することで、より多くの企業が月開発に参入するための月面での稼働実績を得ることができる。YAOKIは世界初となる多企業連携型の月面実証探査車である。
ミッションチームは、各企業が持つ技術やサービスが、今後拡大する月面市場で競争力を発揮できるよう、様々な企業に連携を呼びかけている。

■Intuitive Machinesについて
Intuitive Machinesは、米国のテキサス州ヒューストンに本社を置く宇宙スタートアップ企業である。月面アクセスサービス、軌道サービス、月データサービス、宇宙製品およびインフラストラクチャを提供している。NASAの商業月面輸送サービス(CLPS)に採択され、NASAや民間のペイロードを搭載した月着陸船を2023年第一四半期までに打ち上げる予定であるという。

■YAOKIについて
YAOKIは、超小型、超軽量、高強度を兼ね備えた月面探査車(月面ローバー)で、コストを抑えて月面に送り込むことができる。YAOKIは二輪方式を採用し、特許技術を駆使する事で、超軽量小型化を可能にした。従来の小型探査車に対し、重量で10分の1(現在498g)、大きさで50分の1(15×15x10cm)を達成している。それにより、1kgあたり1億円以上かかるといわれる月への輸送費を大幅に節減している。
今始まろうとしている国際的な月開発事業は急拡大する新しい市場である。YAOKIは、これまでに月開発市場の参入を目指すパートナー企業様の要素技術を搭載して月面実証機として期待されており、今後もその数を増やす予定である。また、2023年からは、月面探査車YAOKI自体をOEM提供し、受給した企業様自身が月面探査を実施できるサービスを新たに開始するとのこと。

ニュースリリースサイト(dymon):https://dymon.co.jp/news/202301-intuitive-machines/

Biel Glasses社とパナソニック、視覚情報をサポートするスマートグラスを公開

Biel Glasses社とパナソニックは、2021年から共同で開発を進めてきた視覚障がい者をサポートするスマートグラスのプロトタイプを初めて公開する。

Biel Glasses社は、2017年に設立されたバルセロナを拠点とするスタートアップ企業。視覚障がい者の移動を支援することで、自律性の向上を図るスマートグラスを開発している。同社は、弱視で生まれた息子Bielのために解決策を求めていた医師と技術者である両親によって設立された。Biel Glassesの技術は、AIとロボティクス技術で現実世界を理解し、複合現実(Extended Reality)技術で患者の残りの視力に適応させることが特長である。

今回展示する共同開発製品は、パナソニックの小型・軽量、5.2K HDR 対応のVRゴーグルと、Biel Glasses社の弱視者支援技術とを統合したスマートグラスのプロトタイプ。周辺視野の喪失(一般にトンネルビジョンとして知られ、緑内障や網膜色素変性症などの病気の影響)がある場合に、使用者が障害物やその他の危険を認識できるよう映像処理等を行うことで、自律的な移動をサポートする。

■ 本開発品の主な特長
1. 自律移動を支援
AIとロボティクス技術により、カメラとセンサで捉えたシーンを分析し、障害物、段差、穴などの移動の際の危険を検出し、MR(Mixed Reality)技術により、使用者の残りの視力に合わせた映像表示を行う。

2. 視覚特性に合わせた視覚情報サポート
検眼士が、視覚障害の状況や必要性に応じてスマートグラスの機能を調整する。最適な映像処理(ズーム、照明への適応、コントラスト強調など)で、視力を支援する。

3. 装着負担の軽減
スマートグラスの映像表示にμOLEDディスプレーとパンケーキレンズを採用することで、小型・軽量、低消費電力を実現。これにより動きやすく、装着の負担を軽減する。

Biel Glasses社とパナソニックは、弱視支援サービスの事業化に向けて、今後も必要な技術開発と臨床検証を進める。
Biel Glasses社とパナソニックは、2023年1月5日から8日まで米国ネバダ州ラスベガスで開催されるCES 2023の両社のブースで、弱視支援スマートグラスを参考展示する。

Biel Glasses:Tech West, Venetian Expo, Level 2, Halls A-D, booth 55439
Panasonic:Tech East, Central Hall, booth 246

ニュースリリースサイト(panasonic):https://news.panasonic.com/jp/topics/204980

NTTデータ、ヴァレオ、エンボテックがコンソーシアムを結成、自動駐車ソリューション提供

2023年1月4日発表(米ネバダ州ラスベガス)プレスリリース訳
グローバルなデジタルビジネスとITサービスのリーダーであるNTTデータと、ヴァレオ、および自動運転システムのソフトウェア・スケールアップであるEmbotechは、自動駐車ソリューションを提供するための次の大きなステップを発表した。3社は共同でコンソーシアム「VEN.AI」を結成し、グローバルなロールアウト機能を備え、生産準備が整った駐車場自動化の信頼されるソリューション・プロバイダーになることを目指す。このコンソーシアムは、所有するIP、最新のテクノロジー、販売とサポート体制、強力な運用サービスなど、各社のコア・コンピタンスを組み合わせたものである。

VEN.AIは、センサ、コネクティビティ(5G など)、オフボード・コンピューティングを使用して専用の駐車スペースに車両を誘導するため、車両側の必要要件がほとんどないインフラストラクチャ・ベースのソリューションを提供する。自動駐車ソリューションは、車両を製造する組立工場、アウトバウンド・ロジスティクスの物流拠点、車両フリート オペレーターのデポ、小売店舗、自動ヴァレー駐車サービスを備えた駐車場など、さまざまなユース・ケースで活用できる。

初期段階では、VEN.AIは製造現場のユースケースに注力し、製造ステーション間で車両を自動的に誘導することで、自動車メーカーが組立工程の効率を向上させるのに役立てる。その後、車両を組立ラインの最後から出荷エリアの専用スポットまで駆動する。これにより、組立工程がより効率的になり、時間とコストを節約できるようになる。

ADASセンサと関連する検出アルゴリズムの世界的リーダーであるヴァレオは、駐車システムを適切に機能させるために必要な技術を提供する役割を担う。使用されるセンサにより、駐車場で車を検出して位置を特定し、周囲の環境を認識することができる。この情報は、アルゴリズムによって利用可能な駐車スペースに車を正確に誘導するために使用される。

安全性はVEN.AIにとって重要な点であり、カメラ、光検出、低遅延のコネクティビティ、センサの使用など最新の技術革新を統合する。このシステムは、安全性と可用性において最も厳しい要件と基準を満たすように設計されており、Embotech PRODRIVER® などのクラス最高のビルディング・コンポーネントを備えている。このSAE L4 仮想ドライバーは、まるで人間のようにフレキシブルな運転ができるように設計されている。これにより、交通が混在し混雑した物流エリアでの自動運転や、非常に狭いスペースへの駐車を可能になり、スペース効率を高めることができる。

さらに、VEN.AIは駐車自動化のソリューションをグローバルな生産システムに統合し、EVの自動充電を追加し、車載センサを使用して広い駐車場での効率と柔軟性を向上させている。グローバル展開には、24時間年中無休の運用サポートも含まれる。

ニュースリリースサイト:https://prtimes.jp/main/html/rd/p/000000143.000004446.html

ai6、「CSPライトセキュリティ」サービスへWi-Fiセンシング技術とデバイスの提供

ai6(株)は、セントラル警備保障(株)〔以下、CSP〕が2023年1月6日から提供を開始する「CSPライトセキュリティ」 サービスで利用されるWi-Fiセンシング技術及び対応デバイスを提供する。(画像はイメージ)
警備会社としてのWi-Fiセンシング技術の採用は世界初となるという。

ai6は2021年よりWi-Fiセンシング技術を用いた見守りサービスである「Hex Home」を一般に向けて自社ECサイトで販売しているが、今回CSPに、Hex Homeサービス(Wi-Fiセンシングデバイス(Hex Command及びHex Sense)、スマートフォンアプリ及びクラウドシステム)をOEM提供する。

Wi-Fiセンシング技術は、米国OriginWireless社が開発、特許を保つ技術であり、日本国内ではai6を通じて技術ライセンスが提供されている技術。
カメラやウェアラブルデバイスを使用せず、従来の機械式センサを設置しなくても、Wi-Fiの電波だけで遠隔地の人やペットなどの動きや微細な呼吸などを正確に検知する高度な空間検知技術である。

これまでの一般的なセンサとは異なり、Wi-Fi電波の反射を利用した全く新しいセンシング技術であり、
・広い範囲をカバーし、物陰や壁の裏などでの人の動きも検知することが出来る高性能なセンシングを提供する。
・カメラを使わないことからプライバシーへの配慮も可能となる。
・さらに、広く普及しているWi-Fi技術がベースであるため、低廉な費用で利用できる。

ai6は今後、様々なパートナーにWi-Fiセンシング技術を提供するとともに、独自のAI技術により、今後、更に高度で複雑な検知、判断、推測を実現し、人々の安心安全の確保、健康な生活の維持促進に貢献するとしている。

ニュースリリースサイト:https://prtimes.jp/main/html/rd/p/000000013.000040517.html

流体計測技術の歴史と将来像

大木 眞一(おおき しんいち)
日本工業大学 特別研究員
大木 眞一

1.はじめに

 計測技術の分野において、流体計測は対象となる流体現象を解析・利用して発展してきた歴史があります。 今回は、私が計測制御メーカで流量計・流体計測の開発設計の仕事に長年従事してきた経緯、および現在も流体計測の分野で研究活動を継続している経験をもとに、流体計測技術の発展の歴史と将来像について私感を交えながら述べたいと思います。

2.流体計測技術の発展の歴史

 このコラムで扱う流体計測とは、主に流体の流れ=流量・流速を計測すること、および流体の状態量(温度、圧力、密度、粘度など)を計測すること、さらに流体の現象(流れの様子、振る舞い)を解析・計測することを言います。 このように一口に流体計測といっても、広い領域を扱う計測技術です。
 最初に、流体計測するための主な原理をまとめておきます。 図1のベルヌーイの定理、図2のボイル・シャルルの法則、および図3のレイノルズ数(層流と乱流)です。 図1は、流体でのエネルギー保存則に相当します。 この定理は、流体計測する上で流れの基本原理となります。 図2は、気体(圧縮性流体)を扱う場合に基本となる原理です。 また、図3は流体の相似則です。 流体の流れと状態量は、主に以上のような3つの原理で支配されています。

図1 流れの原理(1) ベルヌーイの定理
図1 流れの原理(1) ベルヌーイの定理
図2 流れの原理(2) ボイル・シャルルの法則
図2 流れの原理(2) ボイル・シャルルの法則
図3 流れの原理(3) レイノルズ数ー層流と乱流
図3 流れの原理(3) レイノルズ数ー層流と乱流

 次に紹介する主な流量・流速センサは、歴史的に19世紀以来、物理法則や機械的原理を応用して古くから開発、実用化され世の中で使用されてきた経緯があります。 表1 に、主な流量・流速センサの種類と測定原理、および物理法則の応用例を示します。 現在、新技術・材料を活用した流量・流速センサが開発されていますが、基本原理はいずれも表1のような物理法則を応用しています。


表1 主な流量・流速センサの種類と測定原理、および物理法則の応用
センサの種類 測定原理
物理法則の応用
差圧式 ベルヌーイの定理
容積式 容積の通過量を測定
タービン式 タービンの回転数を測定
面積式 フロートの変位を測定
渦式 カルマン渦の原理
ピトー管式 ベルヌーイの定理
電磁式 ファラデーの電磁誘導の法則
コリオリ式 コリオリ力の原理
熱式 熱の移動量を測定
超音波式 超音波の伝搬時間差/ドップラーシフトを利用

 従って流体計測技術を扱う上で、以上のような基本原理および物理法則を頭に入れてセンサ開発や計測技術に取り組むことが重要と考えています。
 また流量・流速センサについては、表1に示すものの大半は検出部(センサ)が接液(検出部が配管内の流体に直接接液して測定する)式の構造です。 理想的には、非接液式で配管の外から測定する方式が望ましいと考えます。 クランプオン形の超音波センサ(図4)がこのような方式ですが、今後センサの開発が進みアプリケーションが広がれば、この方式が普及すると思います。 

図4 クランプオン形 超音波式流量センサ
図4 クランプオン形 超音波式流量センサ

3.流体計測技術の将来像

 最後に、流体計測の将来像について私は以下のように考えています。 先日、エジプトのシャルムエルシェイクで開催されたCOP27での気候変動に関する議論や、全地球的規模での自然災害、さらに国連で採択されたSDGsなど危機に対する取組み等々が吃緊の課題となっています。 また、世界の人口増加にともなうエネルギーの確保と供給も大きな挑戦課題となっています。 このような課題と対策に取り組むに当たって、いずれも対象となる物質に対する流体計測のニーズがますます大きくなっていると思います。 ニーズ例として、以下のようなエリアがあります。
 エネルギーのエリアでは、LNG、液体水素などの低温流体の計測。 カーボンニュートラルのエリアでは、気体および低温液体のCO2計測。また、バイオ、医療のエリアでは気体・液体の微少流量計測など。 流体現象として、特にエネルギー採掘現場における混相流(図5 気体・液体の2相流、固体が混入する混相流など)を扱う測定技術も一層要求度が大きくなります。 現場での流体計測を実施する上で、事前に実験室での流体解析を行う場合にレーザを応用したLDV(レーザドップラー流速計)、トレーサ粒子を利用したPIV(粒子画像流速計)などの新技術の開発と応用も必要です。 また、流体現象を可視化して解析するためのレーザシート、および解析装置も要求度が大きくなると考えられます。 最近では、流体実験の結果を検証するために、数値解析CFDによるシミュレーション技術もスーパーコンピューターを活用して開発が進み、自然現象の分野を含めて応用事例が大きく広がっています。

図5 混相流(気液2相流)の事例
図5 混相流(気液2相流)の事例

 このように、流体計測に関わる技術者、研究者の活躍がますます期待されています。 かつて、イタリアのレオナルド・ダ・ヴインチは流体力学の研究もなかった時代に、自然現象を深く観察して、川の流れが物体に接触した時に渦が発生する様子を詳細にスケッチしています。 現代の技術から見ても驚くべき洞察力と思います。 IT、AIの現代であればこそ、このような研究心が重要ではないかと考えています。 若手の技術者、研究者の皆さんの今後の挑戦とご健闘を祈っています。



主な参考文献

  1. 大木眞一「流量計測入門講座」DVD教材 日本工業出版 (2018)
  2. 山崎弘郎 センサ工学の基礎(第2版) オーム社 (2014)
  3. 松山裕 実用 流量測定 (財)省エネルギーセンター (1995)
  4. 大木眞一「センサ基礎講座 流量・流速センサ」計測技術 日本工業出版 (2020.7)
  5. 大木眞一「工業用流量センサの製品コンセプトと設計の考え方」センサイト (2020.10)
  6. 日本機械学会編 技術資料「流体計測法」改訂版 (2022.4)


大木 眞一(おおき しんいち)

【著者紹介】
大木 眞一(おおき しんいち)
・日本工業大学 特別研究員
・日本工業出版 「計測技術」企画委員
・一般社団法人 次世代センサ協議会 技術委員

■略歴
横河電機(株)にて、流量計開発設計・製品企画・流量設備設計などの業務に携わる。

■主な著書
・「渦流量計の創造」 日本工業出版 大木他
・「流量計測入門」 日本工業出版 DVD教材
・「蒸気流量計測」 日本工業出版 DVD教材

「人の身体動作からの感情推定とキャラクタの感情豊かな動作生成 — 人間性豊かな遠隔コミュニケーションの実現に向けて」
Emotion Estimation from Human Body Movements and Generation of Emotionally Rich Movements of Characters – Toward the Realization of Humanity-rich Telecommunication(1)

北村 喜文
東北大学
電気通信研究所
北村 喜文
藤原 健
國立中正大學 心理學系/
東北大学 電気通信研究所
藤原 健
幸村 琢
香港大学/エジンバラ大学/
東北大学 電気通信研究所
幸村 琢

1.非言語情報 ― 豊かな遠隔コミュニケーション実現に向けての鍵

 コロナ禍で急速に広まったビデオ会議やVR を用いたメタバースなどのオンラインコミュニケーションで,非言語情報がうまく伝達できないことによる様々な不具合やもどかしさが露見した.コロナ禍後も,SDGsの環境・国境・経済的な面での2030年までのいくつかの目標達成に向けて,また多様な働き方を実現する手段として,オンラインコミュニケーションはさらに重要視されている.
 非言語情報は,対人コミュニケーションで使われる情報のうち,言語的な情報(話し言葉や書き言葉)以外の多岐に及ぶ情報を指す.言語情報を補足し,情動の伝達に適しており,他者の真意を読み取る際には言語よりも頼りになることも多い.日常の対人コミュニケーションの中で,感情を伝える場面では9割を超す情報が言葉ではなく非言語情報によって伝達されるという報告もある等,我々の日常の対人コミュニケーションの中で重要な役割を担っている.図1に示すように非言語情報は非常に多岐に及び,一般的なオンライン会議やメタバースなどで比較的伝わりやすいものからほぼ伝わらないものまで幅が広い.そのため,単純な従来手法では欠落してしまう非言語情報を何とかうまく伝送する方法を考えて行くことが,未来社会での豊かな遠隔コミュニケーション実現に向けて重要なテーマとなるのではないかと考える.

図1: 多岐に及ぶ非言語情報
図1: 多岐に及ぶ非言語情報

 多岐に及ぶ非言語情報の中で,顔表情はカメラ映像などによって従来のオンライン会議などでも比較的伝達され易く,また,心理学の分野を中心に顔表情からの感情理解などの研究も盛んに進められており,その利用例も見かける.そういったものの中で最もよく用いられている基盤的理論は,Facial Action Coding System(顔面動作符号化システム)と呼ばれるもので,顔の動きを包括的に定量化し,Action Unit などと呼ばれる基本動作の組み合わせで様々な顔の動きをコード化し,顔の感情認識などに用いられている2).これに対して人の身体動作は,多くの重要な潜在的情報を含むにも関わらず,カメラだけでは必ずしも全てを捉えられず,表現される重要な情報が相手側に届きにくく,また顔表情に比べて研究も十分に進んでいるとは言えず3),学術的にも挑戦的な課題と言える.

2. 身体動作に注目した「動作ユニット」

 そこで我々は,「人の身体動作」に注目して研究を2021年後半から開始した.上述の顔表情理解研究におけるAction Unit に倣って,身体動作の基本部分単位を「動作ユニット(Motion Unit)」として新しく定義し,その動作ユニットの活動と感情表出の関係を対応付けたAIを作成して,アバタやキャラクタの感情豊かな動作を生成しようとする研究で,心理学やコンピュータアニメーションの分野との学際的研究として実施している.図2に示すように,人の身体動作から感情を推定し,それを基に動作をコード化して伝送し,遠隔地でデコードして取り出した動作をアバタに施せば,通信路に負担をかけることなく,通信環境の変化にロバストに,感情豊かな動作をアバタにさせることができ,豊かな遠隔コミュニケーションを実現できると考える.

図2: 動作ユニットAI の社会実装例のイメージ
図2: 動作ユニットAI の社会実装例のイメージ

 動作ユニットを定義する目的は,感情を表出する人の身体動作を客観的・体系的に記述するために必要となる関節の運動要素とその組合せを最小限のレベルで明示・リスト化することで,世界中の研究者たちが用いることのできる共通言語を作成することである.そのために,我々は現在モーションキャプチャ装置を使ってデータの取得を進めている.動作ユニットを定義する際に参考となる身体動作による感情表出についての先行研究は,The Body Action Posture coding system 4)など極めて少数に限られる.そこで,モーションキャプチャから得られる大規模データを利用して,2 段階のデータ駆動型アプローチを採用することとした.まず第1 段階では図3のように,感情表出に必要となる動作とそのための分析単位を抽出することにより,どのような感情表出にどのような身体動作が必要になるのかを見出すことができる.そして第2 段階として,表情研究における顔表情生成器のように動作ユニットを操作する身体動作生成器を構築し,どのような動作ユニットの動きの組合せがどのような感情表出に見えるのかを検証する.

図3: 動作ユニットの定義と動作ユニットAI の構築イメージ
図3: 動作ユニットの定義と動作ユニットAI の構築イメージ

 身体動作のデータとしては,舞台等に出演しているプロ(または準プロ)の役者100名を雇い,全員にそれぞれ12 種類の感情(喜び,悲しみ,怒り,嫌悪,恐れ,驚き,軽蔑,感謝,罪悪,嫉妬,誇り,羞恥)のそれぞれに対応するシナリオの元で小・中・大の3段階の感情表出強度で演じ分けてもらっている.その例を図4に示す.これにニュートラル(無感情)の表出を加えて1 人当たり111 の動作データを取得する実験は,1人につき優に半日かかる.2022年12月現在,ほぼ100名分のデータ取得を終え,現在解析中である5)

図4: 感情表現動作の例
図4: 感情表現動作の例


次回に続く-



参考文献

  1. 大坊郁夫: しぐさのコミュニケーション,サイエンス社, 1998年9月
  2. Ekman, P., & Friesen, W. V: Facial action coding system (FACS): A technique for the measurement of facial action. Palo Alto, CA: Consulting Psychologists Press, 1978.
  3. Witkower, Z. and Tracy, J. L: Bodily Communication of Emotion: Evidence for Extrafacial Behavioral Expressions and Available Coding Systems, Emotion Review, 11(2), pp.184–193, 2019.
    https://doi.org/10.1177/1754073917749880
  4. Dael, N., Mortillaro, M. and Scherer, K. R: The Body Action and Posture Coding System (BAP): Development and Reliability, Journal of Nonverbal Behavior, 36(2), pp.97–121, 2012.
    https://doi.org/10.1007/s10919-012-0130-0
  5. Cheng, M., Higashiyama, S., Fujiwara, K., Tseng, C. H. Kitamura, Y: E-Motion: A database of bodily Expression of basic and social emotions, iPerception (in press).


【著者紹介】

北村 喜文(きたむら よしふみ)
東北大学 電気通信研究所 教授

■略歴
東北大学 電気通信研究所 教授.博士(工学).バーチャルリアリティやコンピュータヒューマンインタラクションの研究に従事.1987 年大阪大学大学院基礎工学研究科博士前期課程修了.同年キヤノン(株),1992年ATR 通信システム研究所,1997 年大阪大学大学院工学研究科/情報科学研究科 助教授/准教授.2010 年より現職.2018 年より副所長.

藤原 健(ふじわら けん)
國立中正大學 心理學系 助理教授

■略歴
國立中正大學 心理學系 助理教授 / 東北大学 電気通信研究所 非常勤講師.博士(人間科学).社会心理学,対人コミュニケーションの研究に従事.2013 年大阪大学大学院人間科学研究科博士後期課程修了. 同年京都大学経営管理大学院研究員,2014 年大阪経済大学講師,2019 年カリフォルニア大学サンタバーバラ校客員研究員を経て2021 年より現職.

幸村 琢(こうむら たく)
香港大学 コンピュータサイエンス学科 教授

■略歴
香港大学 コンピュータサイエンス学科 教授 / エジンバラ大学 情報学部 教授 / 東北大学 電気通信研究所 客員教授.博士(情報科学).キャラクタアニメーションの研究に従事.2000年東京大学大学院情報理工学系研究科博士後期課程修了.同年理化学研究所研究員,2002年香港城市大学Assistant Professor,2006年エジンバラ大学Lecturer, Readerを経て2019年よりProfessor.2020年より現職.