IoTの先を行くIoA 「ハプティクス義手」の衝撃

img_9380

 

2016年のナンバー1の技術なのでは?

そう感じさせる最新技術が、にぎやかな会場の片隅の、わずか8㎡ほどの小さなスペースで異彩を放っていた。

それが、CEATEC JAPANの慶應義塾大学(ハプティクス研究センター/野崎研究室)の展示ブースだ。

世界初の“高性能ハプティック義手”の開発を手がけ、全648社・団体が出展したなかで『CEATEC AWARD 2016』審査委員特別賞を受賞した。

しかし、この義手は、同デバイスが持つ最新技術が秘めたポテンシャルの一部を具現化したにすぎないという。

提唱するのは、「IoT(Internet of Things)」の先を行く「IoA(Internet of Abilities)」の、さらにその先を行く新たな「IoA (Internet of Actions)」。

 

人間が持つ感覚の概念や、既存のロボットの概念を覆し、電気自動車や農業などにまで幅広く大きな革命を起こす可能性を内在する技術について、慶應義塾大学野崎研究室の野崎貴裕助教に開発秘話などを伺った。(全2回)

 

ポテトチップスを義手でつかむむずかしさと、感覚の“ブルーオーシャン”

――CEATECの会場では、右腕を失った方が義手(ロボットハンド)を使う実験映像を流されていましたね。自身の右足の指で義手を操作して、一度も練習をせずに、薄くて割れやすいポテトチップスをつかめるという繊細な技術は衝撃的でした。

この高性能ハプティック義手の最大の特長は、従来の義手、つまりロボットではできなかった「力加減の調節」を実現していることです。

また、たとえば自分自身の足の指を使って直感的に義手を操作し、さらに義手が触った物体の触感を自分の身体で感じることも可能です。

――「ハプティクス」とは、触覚に関する技術全般のことですよね

そうです。人間の五感のなかで、特に人間の動きに着目しますと、見る(視覚)、聞く(聴覚)、触る(触覚)という3つの感覚が重要になります。

すでに「見る」「聞く」を体験できる技術はテレビや動画サイトなどで実用化されていて、残された「触る」技術が、感覚技術における最後のブルーオーシャンといわれています。

img_9345

触覚の技術がなければ、世の中は変わらない

――なるほど、たとえばインターネットで、日本に居ながらヨーロッパの街並みの生中継映像なども簡単に視聴できますね。

しかし、そういった動画を私たちが視聴していても、その現地の状況に変化は起こせません。ただ視聴して、楽しめるだけです。ですが、もし視聴しているひとが遠隔操作で現地にある物体を動かすことができれば、現実世界そのものも変わります。

そういった意味でいえば、触覚以外の4つの感覚は「人間が受動的に楽しむ」だけのものであって、世の中を変える感覚というものは、実は触覚だけしかないのです。

――つまり、触覚がなければ、世の中は変わらないということですね。

そういうことになります。その触覚を、遠隔地でもリアルに感じられるだけでなく、「触感を感じながら、実際に物体を遠隔操作できる」という“力触覚技術”の開発に世界で初めて成功したのが、私たちです。

 

遠隔での触感と操作を実現した、世界初のリアルハプティクス

――最近は、スマートフォンの操作ボタンや、パソコン、ゲーム機のコントローラーなどでハプティクス技術が流行していますが、そういったものとのちがいは何ですか?

現在、一般的に「ハプティクス」と呼ばれる技術は、基本的にバーチャルなものがほとんどです。仮想的に人間の触覚を錯覚させるものや、何かに「触れた」ということがバイブレーションのような形で“通知”される技術で、いわばメール受信時などのバイブレーションと一緒です。

――たしかに、疑似的に「触った」とは感じますが、触ったモノ自体の細かいカタチや“肌触り”ということはわかりませんね。

私たちの技術は「リアルハプティクス」と呼ばれ、義手などのロボットが触った物体の感覚を、人間に伝えるという技術を有しています。

マシュマロであれば弾力が、金属であれば硬さがわかりますし、物体の形も、実際に手で触っているようにリアルに感じられます。しかも、その触感を遠隔で感じられるのが大きな特長です。

――さらに、能動的な遠隔操作もできる点も大きなちがいですね。

従来のハプティクスは受動的なもので、遠隔で“現場”を変化させたり、状況を改善させたりすることはあまりできません。

しかし、私たちのリアルハプティクスはモノとのインタラクション(相互作用)があるので、たとえばロボットが触った荷物を運ばせることもできます。「通知がある」だけの技術とは大きくちがいます。

――具体的な技術名はあるのですか?

核となる技術は、『加速度規範双方向制御方式』というものです。私が慶應義塾大学在学中に所属した大西研究室の大西公平教授が世界で初めて実現した感覚伝達技術で、従来のロボットでは不可能だった「優しく、力加減を調節する」ということを実現できます。

この技術の原理をもとにして私たちが開発したのが、この高性能ハプティック義手です。

 

img_9356

ロボットの正確さ+人間の優しさ=?

――この義手の具体的な特長は何ですか?

3点の大きな独創性があります。1点目が「高精度な力触覚伝送機能」で、いわゆる力加減の調整です。

従来の義手は、手の開閉はできますが、力加減を調節できないためにモノを壊すこともあります。これは、“力の制御”ができないからです。

その原因は、ロボットというものが“位置の制御”に基づいて動いているからです。“位置の制御”には正確性がある反面、物体をつかむ場合に、その位置情報に反する物体、たとえばサイズが想定よりも大きいモノは壊してしまいます。逆に、小さい場合はつかむことができません。

――環境に適応する能力が低いということですね。

その一方で、“力の制御”というものがあります。これは力加減を調整できる柔らかい制御で、物体の大きさや硬さ。形状に柔軟な対応ができて安全性も高い制御です。

私たちの『加速度規範双方向制御方式』の義手では、従来のロボットの特徴である正確さと、人間の優しい力加減というものを繋ぐことによって、力強さや柔軟さを兼ね備えた動作を実現しています。また、動作の途中で対象物を置き換えても、柔軟に対応してつかんだり運んだりできます。

――2点目の特長は?

高水準の把持適応性能を実現する、超高速フォグAIを搭載していることです。「触れる」というものは瞬間的に起こる物理現象ですから、一瞬で対応するために、クラウド(雲)ではなく、デバイス側に近いフォグ(霧)で高速処理できるAIを開発しました。

今回、20mm角の高性能ワンボードコアのハプティクスモジュール『ABC-CORE』を独自開発して、どなたでも簡単に私たちの技術を使っていただけるようにしました。

そして、3点目が“力触覚移植”技術で、義手で物体に触れた感覚を身体に移植することができます。

img_9377

『 GP-Arm(汎用上肢)による行為編集/再現』部分

義手の触覚を、人間に移植

――力触覚移植技術をCEATEC会場でデモ体験しましたが、義手であるロボット側がポテトチップスをつかむ微妙な感覚が、遠隔操作をしている自分の手に細かく伝わってきました。なので、力の微調整が可能でしたが、この機能をオフにした状態ではポテトチップスはすぐに粉々に砕けてしまいました……。

義手は身体の一部ではなくて単なる物体ですが、力触覚移植技術を使えば、義手を通じて「自分でつかんだ」という感触に変換することが可能になります。

手術によって義手と神経を直接つなぐ方法もありますが、手術などを行わなくても義手と身体との間で感覚をやり取りできる点が、私たちの技術のユニークなところでもあります。

――いわゆる「筋電義手」と呼ばれるものとは、まったく異なるアプローチですね。

筋電義手は、脳の命令で筋肉を動かして、そこに発生した電位を読み取ることで動きます。しかし、私たちの義手では、たとえば足の指など、自分の身体の一部を動かすことによって義手を動かしています。

義手で最もむずかしい“操作”を直感的に行えますから、トレーニングをしなくても、腕を失った方が「腕のある状態」と同等の作業を行えます。自分の身体感覚だけで動かせるという構造が、従来型の義手との最大のちがいかもしれません。

――トレーニングが不要ということは、普及へのハードルも低いのでは?

その通りです。そのほかにも、力加減を調節するための力センサが不要で、3Dプリンターによる個別のカスタマイズでもコストを抑えられるので、従来の高性能義手よりも格段に安価でつくることができます。また、従来の一般的な義手の約半分以下の400グラム程度にまで軽量化が可能です。

img_9376

「力触覚移植技術」を応用した装置。右側手前にあるハサミのハンドル状の部分を操作すると、右側奥のハンド部分が 遠隔操作によってポテトチップスをつかむ。

人間の動作の高速化や、ガンダムのような作業も実現

――この義手に使われている技術は、どのように応用されていきますか?

応用の一例として、「ジェネラル・パーパス・アーム(GP-Arm)」という世界初の汎用ロボットアームをつくりました。この汎用上肢は世界最高水準の力触覚技術を搭載していて、人間の動作の記録・編集・再現が可能です。

使い方としては、まず遠隔操作で、人間の動作と力加減をリアルタイムで覚えさせて、そのデータを記録します。

――編集とは、どのようなことができるのですか?

記録した人間の動きをもとにして、たとえば早く動かしたいときは高速化できます。動作を10倍速にすれば、同じ時間内に人間10人分の作業を1台だけでできるわけです。

また、ガンダムのように強大な力で土木作業などをしたい場合は拡大を、手術のように鋭敏な感覚で繊細な作業をしたければ縮小を行います。

さらに、複数の人間の得意な作業を集めて合成することもできます。それらの編集した動作情報をロボットに与えることで、人間の動作をさまざまな形で再現できて、人間にはできないような動作も再現可能です。

img_9351

『路面力触覚を伝達するIoTハンドル』部分

人工知能とは雲泥の差の、“瞬間”的対応

――動作は一度記録するだけで大丈夫なのですか?

そうです。力加減の制御に基づいているので、一つの動作を覚えさせれば対象物のサイズなどが多少異なっても一瞬で対応できます。たとえばネジを外す作業であれば、頭の形のちがうネジにも瞬時に対応することが可能です。従来の技術では、こういった瞬間的な反応はできません。

さらに、ネジを外す動作を逆再生すると、ネジを締められます。

――昨今話題になっている、ビッグデータと人工知能の組み合わせとの相違点は何ですか?

それらの技術では、学習だけに何百時間もかかることもあります。しかし、私たちの技術では、ほんの数秒間でデータを記録すれば、さまざまな応用再現が可能です。ネジの形が少し変わっただけで、また何百時間もかかる……という人工知能とはまったく異なります。(了)

 

どこでもドア”とタイムマシンを、すでに実現!?【後編】

 

【取材協力】

img_9339

野崎貴裕●慶應義塾大学理工学部システムデザイン工学科助教。工学博士。1986年、東京都生まれ。2010年、慶應義塾大学 理工学部 システムデザイン工学科卒業。ハプティクス研究の第一人者である大西公平教授の研究室で学び、14年に慶應義塾大学博士課程修了。横浜国立大学大学院工学研究院研究教員を経て、15年4月より現職。人間動作の再現とアクチュエータの小型高効率化に取り組んできた経験を活かし、身体感覚の人工補完に関する研究に着手。『CEATEC AWARD 2016』審査員特別賞など数々の賞を受賞。