セントマティック(株) プロジェクトマネージャー 大山 翔
4.表現する/伝える
前述の通り、2つのサービスを紹介し、それぞれ計測している方法も対象も異なるが、ユーザーの感性を推測した結果、すなわちAIが出力した結果を伝えるために様々な方法をとっている。
「数字」で表現する(定量的な計測および表現)
例えば、「好き」~「嫌い」を10点~0点で表現する方法があげられる。セマンティック・ディファレンシャル法(SD法)と呼ばれる手法で、感情や感性の意味、強さ、強度を計測する手法として一般的である。当該の手法に限らず、感性を数値に変換し表現する方法は多数存在する。
このように、定量的な心理量の計測は、一見合理的な手法に見えるが、数字は正しく利用しなければ、誤った判断を導く可能性があることも常に念頭に置く必要がある。例えばとある製品において調査や前述のサービス利用を通じて「好き」というなんらかのスコアが競合品より高いという結果が出たとする。では、果たしてこの商品は市場において消費者から選ばれる商品になるだとうか。答えは「わからない」もしくは、私の経験からすると売れない可能性すらあると考える。一見すると「好き」という単純な感性に思えるが、実際には複雑な感性であるようだ。商品を目の前にして、好きかどうかを問われると、多くの消費者は、調和度の高い、洗練された、スタイリッシュな、デザインの商品を「好き」と答えるようだ。だが、「好き」な商品を想起させ回答させると、必ずしも前述の特徴ではなく、馴染みがある、特異性や特徴がある、多少違和感があるデザインの商品を回答することがある。ある程度は質問の仕方で統制が取れるが、根本的には「好き」という感性は刺激に対して線形でなく、複雑に変化しているように感じる。
「文字」で表現する(定性的な計測および表現)
本稿では感性をなんらかの感性を別の方法で表現する方法や意味を述べており、実際の人間であれば、最も原始的な方法として言語で表現する方法がまず思い起こされる。実際、従来の消費者やユーザー調査における定性調査では、質問用紙へ自由記述回答が手法として、様々な”本心”を引き出す工夫と共に存在する。一方、定性的にユーザーへ感性を推測した結果を伝える方法の一つとして、ワードクラウドのような単語を列挙する方法が一つ挙げられる。
前述の二つのサービスでは目的や調査の対象も異なるものの、同様の表現方法が見られており、定性的な感性表現として一定の地位を得ていることがわかる。
NeuroAIにおける言語的表現の事例
https://youtu.be/dJUCYWcMPFs
KAORIUMにおける言語的表現の事例(1:35~1:45)
https://www.youtube.com/watch?v=KtTrryg-Fts
単なる数字の羅列に比較して、1画面に多くの情報を盛り込むことが可能な方法であり、対象の様子を大まかに把握する方法として有効であると考える。より人に寄せる方法として、出力された単語を生成AIに取り込み文章を作成することで、自由記述回答と同様の結果を得ることも出来き、目的に応じて選択すればよいと思う。
生成AI以前の自然言語処理技術において最も重要な発明は分散表現であると思っている(専門外の私にはかなり大きな驚きであった)。この概念を知った結果、自然言語の曖昧さや不完全さを感じるようになった。すなわち、本来は事実(商品やサービス等の物理現象)や五感等の感覚は、ほぼアナログ的な連続値であるはずだが、それに対して言語があまりにもデジタル的な離散的な表現であると感じるようになってしまった。PC等で色をRGBで表現をすると各色256段階で表現される。RGB(21,96,130)とRGB(21,96,125)は色を横並びで隣接させるとその色の違いを知覚することが出来るが、私にとって言葉でそれらの違いを明確に表現することは難しい。耳に聞こえる音の大きさ(デシベル)や目で見える輝度の差はよりその差を言葉で表現することは困難である。もちろんその様な場合は定量的な表現をすればよいだけではあるのだが…。
5.アートとデザインの境界たる位置にある産業
CMや香水といった一見全く異なる対象向けにサービスを提供してきたが、それらの製作される過程や、業界構造は実はかなり近しいと感じている。
一般的にCMにおいては、伝えたいメッセージやコンセプトをもとに企画書を最初に作成する。企画書には様々なお作法や、企業による違いが存在するが、例えば、絵コンテと呼ばれる漫画のような形でCMを簡単に表現したものがある。この企画書をベースに細部を詰め、実際に撮影と進んでいくこととなる。このような流れは現代の香水作りにおいても、企業やブランドによって差はあるもののおおよそ同じである。
本来は映像も香水もアートの側面をもっていたはずであるが、現代では需要を意識した工業製品に近いものになっていると感じる。もちろん、企業が製作する以上は、より蓋然性高く売上を上げられることは重要ではあるが、逆説的に需要や過去の成功を意識した、つまらない、どこかで見たこと、嗅いだことがあるようなCMや香水が増えていることもまた事実であると思う。
6.マスターピースは機械で計測できるのか?(作れるのか?)
人間の感性を測ること、特に、AIを使って計測、表現、可視化することを述べてきたが、このようなAIは基本的には過去のデータを使って作られたものであり、常に現実世界より一歩後ろを歩んでいる。AIやデジタルより先に「感性」を動かしているのは人間である。この構造は今後も変わらないはずだ(少なくともロボットが人間と同じように人権を持って生活をしていない現時点では)。紹介した取組以外にも、世間一般には多くの感性を計測/予測するサービスが存在するが、あくまで過去の経験から作られたものである。そのようなサービスでは、過去から非連続的に進化した次世代のマスターピースを正しく計測/予測出来ないであろう。むしろ過去の再生産されたものしか評価出来ないであろう。しかし、企業は蓋然性を高めるために、このようなサービスを捨てられず今後もより活用される機会は増えてくるはずだ。私は、我々人間の感性こそが常に世界の先端にあり(錯覚は起こりうるが、それを理解しつつ)正しいものであるという自負を持ち、世の中の刺激に心を向け、「我々がマスターピースを作るのだ」という意気込みが必要と主張していきたい。
【著者紹介】
大山 翔(おおやま しょう)
セントマティック株式会社 プロジェクトマネージャー
2015年慶應義塾大学経済学部卒業。新卒でNTTデータに入社。鉄道会社、自動車メーカー、研究機関等多くの企業に向け、ニューロサイエンスに関する営業企画、商品企画や、戦略~業務コンサルティングサービスを提供。通信事業者向けの大規模システム統合プロジェクト、インフラ事業者との新規事業創出、事業連携に従事した後、2020年よりNeuroAI及びD-Plannerの企画、後にサービス主幹を担当。多くの消費財メーカー、サービス業向けにサービス提供を実施。2024年より現職。主にフレグランス領域で営業企画やサービス企画を担当。
【著書(共著)】
『ヒトの感性に寄り添った製品開発とその計測、評価技術』内第5章1節『NeuroAIを用いた広告クリエイティブの可視化と効果予測』
大阪大学 基礎工学研究科システム創成専攻 助教 小山 佳祐
5. フォトリフレクタ式
フォトリフレクタはLEDと受光部(フォトダイオードまたはフォトトランジスタ)がペアになった素子であり、物体面からの反射光強度を直接計測する素子である。2013年ごろまでは発光・受光素子のみでしか販売されていないことが多かったが、センサ素子の筐体内に発光・受光素子とAD変換・コントローラ部分が内蔵された製品も登場し、ロボット研究で利用しやすくなった。フォトリフレクタ式は数百マイクロ秒からミリ秒オーダで反射光強度を計測できることから、ロボットを正確な周期で高速制御する際に向いている。著者の研究グループもフォトリフレクタを使用した近接覚センサに関して10年以上、研究開発をしてきた[4] 。過去にはロボットハンドの指先に多数のフォトリフレクタを配置してアレイ状の近接覚センサを開発した。また、各指の近接覚センサフィードバックにより、ロボットハンドの指先位置を対象物面に沿って自動的に調整する制御や、アーム手先位置も同時に調整する制御を実現した。
ただし、フォトリフレクタ式の場合、反射光強度を直接、ロボットの制御値に用いるため、対象物の光の反射率に依存して位置決めの目標値自体が変動する問題がある(図4)。この問題に関しては、移動中の近接覚センサ値を基に物体面の光の反射率を推定する手法や、衝突するまでの残り時間を推定する手法[5] などを提案してきた。しかし、適用可能な反射特性が拡散反射のみに限定されており、鏡面反射や透明物体は計測することができず、主にファクトリーオートメーションの現場需要に応えられない点が課題として残った。
図4:フォトリフレクタ式の測距特性と課題
6. AI処理を組み合わせたフォトリフレクタ式
フォトリフレクタの反射光情報から正確な距離情報を計測するためのキャリブレーション技術に関して、著者の研究グループが研究開発を行ってきた[6] 。この中で、汎化性能の高い独自の機械学習モデルを用いることで、透明や鏡面物体を正確に計測する技術を開発した(図6)。これは代表的な鏡面反射物体、透明物体、拡散反射物体を用意し、フォトリフレクタの反射光強度データを収集、学習モデルを生成することにより、物体面の光の反射特性の影響を受けづらい測距機能を実現する技術である。2×2のフォトリフレクタアレイの反射光情報に対して独自の機械学習を適用することで、距離情報に加えて物体面の傾き角度も推定できる点が特徴である。2018年ごろまでは学習モデルのパラメータ調整や汎化性能が高いモデルを評価することが極めて困難であったが、Optunaやpyhessianなどの最適化・解析ツールが登場したことで研究開発が進んだ背景がある。本センシング技術を用いることで、透明な試験管やスマートフォンの画面といった、鏡面反射特性が強い物体に対して自動的にロボットの手先位置決めを行う動作が可能となった。
また、ハンド指先に搭載した柔軟な機構の変形量を近接覚センサで計測することにより、ばら積みされたねじを自動的にピッキングするシステムも実現した。これはヒトが目を閉じて指先で物体を探りながら把持を行う過程に着想を得たシステムであり、ハンド指先機構の変形量を基に指先のねじれ状態を解消する方向にアーム手先位置を調整し、ピックアップが容易な方向に移動する手法である。本センサ技術により、高速に動作しつつも手探りでロボットが位置決めを行う事が可能となってきた。
さらに、著者は本研究シーズを基に2022年に株式会社Thinkerを設立し、近接覚センサの販売とロボット開発事業を行っている。この中で、2Dカメラとの組み合わせによる薄型食品のピッキングロボットなどを開発しており、近接覚センサの社会実装に向けた取り組みも加速している。
図6:AI処理を組み合わせたフォトリフレクタ式、独自AIモデルにより複雑な反射光強度情報を線形な距離・角度にキャリブレーション(大阪大学、株式会社Thinker)
7. おわりに
本稿では、ロボットハンドの手指における近接覚センシングに焦点を当て、代表的な検出原理を紹介し、著者の研究開発・社会実装に関して簡単に紹介した。
ヒトの作業を代替するロボット技術は学術的に魅力的な研究課題であると同時に、少子高齢化社会において必要不可欠な技術であると考えている。移動ロボットやコミュニケーションロボットはレーザ計測技術や機械学習の急速な発展に伴って著しく成長しているが、一方で、物体を掴んで操作するロボットマニピュレーションはまだまだ発展途上である。現時点では絶対的に強力な手法は存在せず、実用化・社会実装も遅れている。この一因として、ロボットハンドの手指感覚の欠如があり、ロボットハンドに適したセンシング手法を一から考え、研究開発することが近道であると考えている。近接覚センサは有望な候補の一つと捉えているが、触覚センサや力覚センサと比べて応用例はまだ決して多くない、更なる用途開拓が必要である。「ロボットに本当に必要なセンシングは何か?」、学術的な観点からだけでなく、有用性と技術的な限界に関して慎重に見極めていく必要があると考えている。
参考文献
K. Koyama and M. Shimojo, A. Ming and M. Ishikawa, “Integrated control of a multiple-degree-of-freedom hand and arm using a reactive architecture based on high-speed proximity sensing” The International Journal of Robotics Research, Vol. 38, No. 14, pp.1717–1750, 2019.
K. Koyama and Y. Suzuki, A. Ming, M. Shimojo, “Grasping control based on time-to-contact method for a robot hand equipped with proximity sensors on fingertips,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 504-510, 2015.
小山 佳祐, 高速・高精度近接覚センサの開発とロボットマニピュレーションへの応用, 日本ロボット学会誌, 2022, 40 巻, 5 号, p. 393-398, 2022.
【著者紹介】
小山 佳祐(こやま けいすけ)
大阪大学 基礎工学研究科システム創成専攻 助教
■著者略歴
2017年 電気通信大学大学院情報理工学研究科知能機械工学専攻博士課程修了(短期終了)。 2015-2017年 日本学術振興会特別研究員 (DC1)。 2017-2019年 東京大学大学院情報理工学系研究科特任助教。 2019年 大阪大学大学院基礎工学研究科助教、現在に至る。 2022年から株式会社Thinker取締役を兼務。 近接覚センサや多指ハンドに関する研究に従事。 計測自動制御学会、日本機械学会、日本ロボット学会会員。博士 (工学)。