テレイグジスタンス

| テレイグジスタンスとは | テレイグジスタンスの現在 | テレイグジスタンス小史 |

| テレイグジスタンス発見の瞬間 | テレイグジスタンスはいかにして生まれたか | 大型プロジェクト「極限作業ロボット」 |

| その後のテレイグジスタンス | これからのテレイグジスタンス | 参考文献 |

 

テレイグジスタンスとは

Susumu Tachi: Telexistence 2nd Edition, World Scientific, ISBN 978-981-4618-06-9, 2015.

 

テレイグジスタンス (telexistence) とは、人間が、自分自身が現存する場所とは異なった場所に実質的に存在し、その場所で自在に行動するという人間の存在拡張の概念であり、また、それを可能とするための技術体系です。

テレイグジスタンスを用いると、自分自身の分身ロボットであるアバターを用いて遠隔の場所に存在したり、コンピュータが創成した身体であるバーチャルヒューマンをアバターとして、コンピュータの創成した情報空間に存在したり、また情報空間を介して、実空間に存在したりすることが可能となります。

つまり、テレイグジスタンスは、人間を従来の時空の制約から開放し、時間と空間ないしはそれらの両者を隔てた環境に実効的に存在することを可能とする。いわば、アバターを利用して人間をユビキタスにすることを可能とする技術です。因みにユビキタス(ubiquitous)とは、「Being or seeming to be everywhere at the same time:同時にいたるところに存在する、あるいはそのようにみえる:遍在する」という意味です。いつでもどこでも簡単にコンピュータを利用できる環境をユビキタス・コンピューティングと呼んだのは、ゼロックス社パロアルト研究所(PARC)のMark Weiserで1993年のことですが、テレイグジスタンスは、コンピュータではなく、実に人間そのものをユビキタスにしようとする考え方なのです。

テレイグジスタンスでは、人間が実質的に存在する環境が(1)人間にとって自然な3次元空間を構成しており、(2)人間がそのなかで自由に行動でき、しかもその環境との相互作用が自然な形で実時間に生じ、(3)その環境への自己投射性が生じることが必要です。これらは、バーチャルリアリティの三要素と同一の要素で、それぞれ、等身大の空間性、実時間インタラクション、自己投射性と呼ばれています。

テレイグジスタンスを用いるロボットの制御では、人間の運動や力などが実時間で計測され、内部状態が推定されます。その内部状態がロボットに伝達され、直接ロボットの運動制御システムが制御されるのです。つまり、人の動きを忠実に再現するようにロボットの人工の目、首、手、足などを制御するわけです。その時のロボットの人工の感覚器からの情報は、逆にすべて人間の感覚器にそれぞれ直接提示されることになります。従って、例えば人間が見たい方向を向けば、ロボットも同一方向を向いて、そこに人がいた時に見える情景に対応する像を、人の網膜上に実像として結像するわけです。人が自分の腕を目の前に持ってくると、視野内にはロボットの腕が自分の腕のかわりに全く同一の位置関係で現れてきます。このようにして、人は自分の手と対象物、さらには周りの空間との関係を、自分の過去の経験と同一の関係で捉えて作業ができるのです。ロボットが物体に触れた感覚は、人の手に触覚刺激として提示され、人は自分で直接触れたのに似た感覚をもって作業できます。このようにテレイグジスタンスは、人が遠隔地に実際に存在しているかのような高度の臨場感を持って作業やコミュニケーションを行なうための技術を目指しています。自分の分身のようにロボットを利用する方法が研究されており、医療や宇宙開発、深海調査の分野で実用化が進められている技術です。

一方、バーチャルリアリティ (virtual reality) は、人間が現在実際に存在している現前の環境以外の環境を、あたかもそれが現前の環境のような感覚を持って体験し、かつその環境で行動することを可能とする技術です。そのような観点からすれば、バーチャルリアリティが人間の今いる場所を別の環境に変えるという捉え方をするのに対して、テレイグジスタンスでは、今いる環境以外の別の環境に自分が行くという捉え方をしており、相対的に考えれば、両者は本質的には同一概念のエイリアスであるともいえます。

テレイグジスタンスを用いれば、遠隔のロボットを自分の分身として操り、その眼や耳、体などを用いてロボットの働く環境を臨場感を有して体感し、その環境で自在に行動するばかりではなく、実物の環境ではなくコンピュータの生成した人工環境に入り込み、そこに存在するような感覚を有して人工環境で行動することも可能です。さらにそこにいる実感を持つのに加え、同時に能力の拡張もできます。例えば,人間は暗闇や煙の中では物を見ることができませんが、ロボットの赤外線センサや超音波センサを用いれば暗闇や煙の中でも対象物を捉えることができます。実空間にロボットを使って遠隔臨場しながら、ロボットのセンサ情報を実空間にオーグメンティドリアリティ (augmented reality) の方法で提示すれば、暗闇や煙の中でも行動が可能となります。これを、拡張型テレイグジスタンス(augmented telexistence)と呼んでいます。 

図Aに、こうした実環境、VR環境、及び、VR環境を介した実環境へのテレイグジスタンスの構成を示します。実環境へのテレイグジスタンスであろうがVR環境へのテレイグジスタンスであろうが、人間の側は、全く同じシステムです。人間の状態を推定し、それから人間の行動意思を推定し、それにより、実環境の分身ロボットやVR環境のバーチャル人間を、意の侭に制御します。自分の分身のロボットやバーチャル人間が、実環境やVR環境で行動し、その環境とのインタラクションが生じ、その結果が、分身ロボットの感覚器やバーチャル人間の感覚器を介して受容され、それが、統合され人間の感覚器に臨場的に提示されるわけです。環境には、他のテレイグジスタンスの使用者も参加可能で、そのインタラクションも、相互に伝わる仕組みになっています。さらに、実環境とVR環境の整合を図ることで、例えば暗闇や煙の中でも、明るい場所や煙のない場所のように感じながら行動することも、VR環境を介した実環境へのテレイグジスタンスを行うことで可能となるのです。

図A  テレイグジスタンスの構成 [舘 1991]

 

| テレイグジスタンスとは | テレイグジスタンスの現在 | テレイグジスタンス小史 |

| テレイグジスタンス発見の瞬間 | テレイグジスタンスはいかにして生まれたか | 大型プロジェクト「極限作業ロボット」 |

| その後のテレイグジスタンス | これからのテレイグジスタンス | 参考文献 |

 

テレイグジスタンスの現在

テレイグジスタンスの特徴は、人間が新しいロボットの身体(アバター)をもつことにあります。人間は、この新しい身体を自分の身体と同一のものとして自在に行動します。そして、ロボットの眼で見て、ロボットの耳で聞いて、ロボットの肌で感じます。ロボットアバターの中に入っている状態あるいは、ロボットアバターを着込んだ状態が、実際には着込まないでも実現しているのです。

この現在のテレイグジスタンスの解決すべき技術的な課題の一つが、ハプティックテレイグジスタンス(Haptic Telexistence) です。視聴覚については、これまでの研究により、また最近のVRの進展によって、直接その場で見ているのに近い臨場感が得られるに至っています。しかし、触覚については、それには、ほど遠い状況です。現状の技術では、触覚の記録・伝送・提示がアドホックに行なわれており、視覚や聴覚のように人間の生理・心理に基づいた標準化された方式が確立されていないことが、その一因です。

その課題の解決に対する提案が、「触原色」原理です。「触原色」原理は、視覚の三原色が眼球の錐体細胞の波長特性に基づいているのと同様に、触覚の生理学的知見に基づき、対象と人間との接触に際して生じる物理現象を、分解し、伝送し、提示しようとする技術概念です。すなわち、物体の有する凹凸形状、摩擦、熱、弾性といった物理特性をすべて再現するのではなく、その物体との接触によって皮膚表面に生じる、「力」、「振動」、「温度」の三つの物理量を基底として、それらの時間変化を記録し、伝送して、それらの基底を基に触感を合成するのです。

その触原色原理を用いて視聴覚に加え触感をも伝送することが可能となったテレイグジスタンスシステムがTELESAR V です。アバターロボットの指先に搭載し触感を計測する触覚センサと、操縦者の手に装着し手の詳細な運動を計測するとともに触感を提示するグローブ型の触覚ディスプレイを新たに開発しました。触覚センサは、指先と物体との接触力を計測する力センサに加え、広い周波数帯域の振動を計測する振動センサ、および温度センサを内蔵しています。また、触覚ディスプレイは、各要素を指の背や腹に分離して搭載することで、従来難しかった力・振動・温度の3要素の提示を実現しました。これにより、布と紙などの物体表面の細やかな凹凸による触感を伝達できるようになりました。

アバターロボットは、人間型のロボットで、首に3自由度、上半身に6自由度、両腕それぞれ7自由度、両手それぞれ15自由度、合計53自由度を有しており、人間の柔軟で複雑な動作に遅れなく正確に追従します。人間とロボットの自由度や大きさの差異は、コンピュータが補正して、それにより自分がロボットの身体をもったような感覚が生まれます[Tachi et al. 2012;Tachi 2015]]。

図Bに、このTELESAR V システムの概観を示します。

図B テレイグジスタンスシステム「TELESAR V」:人間(左)とアバターロボット(右)

もう一つの技術的な課題として相互テレイグジスタンスがあります。前述のようにテレイグジスタンスでは、アバターロボットの感覚器を使い、自分がアバターロボットの中に入り込んだような感覚を得ることが可能です。また人間の動きは、アバターロボットの動きとなり、それにより生じた外界とのインタラクションの結果は、人間の感覚器に、あたかも自分が、ロボットの居る環境に身を置いているかのように伝わり、そこでの自在な行動を可能とします。すなわち、臨場感が生じます。

同時に、そのアバターロボットを、そのアバターロボットの周りに居る人が見た時、そのロボットが、そのロボットを使用している人のように見える、あるいは、そのロボットの中に、その人が入っているように見えることが、人との関わりのある場面では大切になります。勿論、声もその人のように聞こえます。動作もその人らしい動作が伝わります。つまり、存在感があるというわけです。

勿論、その人そっくりのロボットを使えば、それらしいことはできますが、しかし、それでは、自分がテレイグジスタンスしたいところにあらかじめロボットを送っておかなければならず用途が限られます。テレイグジスタンスは、世界中にあらかじめ配置されインターネットでつながれているロボットを、皆がシェアして利用して、そこに瞬間移動できる点にも大きな特徴があります。

そのようなロボットを使う人を、リアルタイムで見ることができるテレイグジスタンスが、ロボットを用いる相互テレイグジスタンスです。図Cに、そのようなシステムの一例を示します。操作者の姿を、ロボットの頭部や胴体にリアルタイムに投影することで、再帰性投影プロジェクタを覗いた観察者が操作者の表情をロボットの内部に見て、操作者の存在を感じ取ることが可能となります。

光をそれが来たのと全く同じ方向に反射し戻す特性を持つ再帰性反射材をロボットの体表面に塗布することで、ロボットに投影された操作者のリアルタイム映像と、その場に存在するロボットの実像との間に正しく遮蔽関係が構築されるため、例えば操作者の映像の手前にロボットの腕が来た場合には、ロボットの腕が操作者の姿より手前に観察されることになり、操作者の高度な存在感を矛盾無く提示することが可能です。また、ロボットの全面から見れば正面顔が、横から見れば横顔が見える、しかも、周りにいる何人もの人が同時に見ることができるという特徴もあります。

このシステムでは、ロボットの視覚はHMDではなく、マスターコクピット側の多面裸眼立体ディスプレイで操作者に提示されているため、操作者の顔を隠すことなくカメラで撮影でき、そのカメラの映像をスレーブロボット側の再帰性投影プロジェクタでロボット表面に投影することで、操作者の存在感が提示できるのです[Tachi et al. 2008]。

図C TELESAR II : RPTにより相互テレイグジスタンスを可能としている

 

| テレイグジスタンスとは | テレイグジスタンスの現在 | テレイグジスタンス小史 |

| テレイグジスタンス発見の瞬間 | テレイグジスタンスはいかにして生まれたか | 大型プロジェクト「極限作業ロボット」 |

| その後のテレイグジスタンス | これからのテレイグジスタンス | 参考文献 |

 

テレイグジスタンス小史

1980年テレイグジスタンスの概念の提唱:1980年9月にテレイグジスタンス(telexistence=tel-existence:tel=離れて+existence=存在)に思い至る[Scoică 2015]。図1にテレイグジスタンスの概念図を示します。

図1 テレイグジスタンスの概念 [舘 1982]

1982年テレイグジスタンス立体視システム:操作者の頭の動きどおりに動き、カメラの映像を操作者に提示するシステムを開発しました。81年の試作当初は視覚だけの装置でした。人間が直接見たときの網膜像と等価になるように設計した立体提示装置が完成したのは81年末で、82年に計測自動制御学会大会論文集に論文が掲載されます。これを実験し体験したのは81年の末から82年の初めでした。このシステムで自分自身を見たときの驚きは今も忘れられません。いわば、初めての幽体離脱ともいうべき体験でした(図2)。自分自身があたかも幽体離脱したかのように三次元世界に存在し、しかも手を上げたり下げたりしている自分の姿がリアルタイムに観測されたのです。その装置により見えた世界は白黒の世界ではあったのですが、自分自身が自分自身を客体的に観測しているありさまに大変感激しました。一生忘れられない感動でありました。他の体験者も、カメラロボットがあたかも自分の頭であるかのように「テレイグジスタンス」できたとの報告をしています。さらに、このような主観的な評価にとどまらず、客観的に直接視と同等であることを、ホロプタを用いる心理物理実験で示しました[舘、荒井 1989]。

 

図2 テレイグジスタンスで自分をみる

1985年テレイグジスタンスビークルの開発:遠隔からでも、あたかも移動ロボットに乗り込んだような感覚で移動制御できるテレイグジスタンスシステムを開発。自分が車の運転手になった感覚で移動し障害物を回避できました(図3)。

 

図3 移動ロボットへのテレイグジスタンス

1989TELESARの開発:ロボットの中に入り込んだような臨場感覚を得ながら、ロボットを自分の分身のように自在に制御できる人間型ロボット TELESAR (Telexistence Surrogate Anthropomorphic Robot) を開発。ブロックを積んだり、卓球の球を打ったりする作業が自分で直接行っている感覚で行えることが確かめられました[Tachi and Yasuda 1994]。また、実空間に加えてバーチャル空間へのテレイグジスタンスも可能となりました(図4)。

 

図4 人間型ロボットTELESARへのテレイグジスタンス

 

| テレイグジスタンスとは | テレイグジスタンスの現在 | テレイグジスタンス小史 |

| テレイグジスタンス発見の瞬間 | テレイグジスタンスはいかにして生まれたか | 大型プロジェクト「極限作業ロボット」 |

| その後のテレイグジスタンス | これからのテレイグジスタンス | 参考文献 |

 

テレイグジスタンス発見の瞬間

(バーチャル・テック・ラボ p.102 より[舘、廣瀬 1992]

そもそもの始まりは客員科学者として滞在した MITでの研究生活を終え、筑波の研究所に戻ってきた1980年の夏であった。日本で生まれた世界初の盲導犬ロボットの研究はまさに大詰めを迎え、 MITでの成果を盛り込みつつ心血を注いでいた。 MITでは、ボストンアームで高名なマン教授とともに模擬装置を利用する盲人の歩行補助装置の系統的かつ定量的な評価方法を提唱し研究を行った。

その MITでの研究と日本での盲導犬ロボットの研究の新たな展開としてテレイグジスタンスに思い至ったのは、その年の初秋のある日の朝、研究所の廊下でのことだった。所詮人間の視覚は波動に基づいており、結局二つの目の網膜に映し出された2枚の映像だけしか人間は利用していない。ただ、時々刻々の変化を能動的に捉えそれから三次元を再構成しているのだという事実を再発見した瞬間だった。

直接視で得られるのと同一の網膜像を計測と制御の力で人間に与え続ければよい。その瞬間それまでのもやもやが、一瞬のうちに霧散するのを感じて軽い身震いさえ覚えた。すぐ研究室に戻りノートに向かって溢れるように浮んでくる考えを次々とまとめていった(図5)。驚くべきことではあるが、視覚提示の原理も同時にいわば大悟した。

テレイグジスタンスに思い至って世界に対する見方が一変した。テレイグジスタンスと人工現実感は人間の時空の制約を解放するであろう。存在とか現実とかの本質に迫るということもあながち絵空事でもあるまい。

 

図5 テレイグジスタンス発見時のアイディアのスケッチ

| テレイグジスタンスとは | テレイグジスタンスの現在 | テレイグジスタンス小史 |

| テレイグジスタンス発見の瞬間 | テレイグジスタンスはいかにして生まれたか | 大型プロジェクト「極限作業ロボット」 |

| その後のテレイグジスタンス | これからのテレイグジスタンス | 参考文献 |

 

テレイグジスタンスはいかにして生まれたか

(人工現実感 pp.148-155より [舘 1992]

テレイグジスタンスは日本で独自に考えだされたのだが、どうしてそのような概念が生まれたかということを紹介してみたいと思う。

もともと、私は「盲導犬ロボット」という研究をしていた。首導犬ロボットとは、目の不自由な人の補助をすることを目的として作られて研究されたものである。ロボットによって環境を認識してその情報を人間に伝えながら、目の不自由な人の歩行を手助けするシステムだ。その盲導犬ロボットの研究で、盲導犬ロボットのような補助的な装置が環境情報を得たときに、その情報をどのように人間に提示すれば人間はそれを使って歩行できるか、という問題が発生してきた。

また次のような問題も重要になった。たとえば3メートル先の左側に自動車が駐車してあるとか、あるいは人が1メートル前方を同じ方向に歩いているとか、十字路が10メートル先にある、などという情報を盲導犬ロボットなどの歩行補助装置が人間にどう教えるかという問題である。それらの情報を音や皮膚刺激などの不自由な人の残存感覚を介して、適切に伝えなくてはならない。そういった伝達方法がいわゆる目の不自由な人のための、補助器の設計法になる。別の言い方をすれば、どういう情報をどのように教えると人間が自由に歩けるかということを知りたいわけである。ところが、その方法が確立されていなかった。情報をどう伝えれば人間が歩きやすいか、それを調べることさえ難しかったのである。

当時の装置というのは、全て「こんなふうにするといいかな」とだれかが考えついて、その考えついたアイディアを利用して装置を設計し、使ってみて具合が悪いと直すということを繰り返していた。そのような方法だと、設計してから作って、作ったものを利用してみて、また作りなおすという繰り返しで時間がかかる。またそのできた装置が、評価をした人には使いやすくても、別の人が使おうと思うとうまく使えなかったりする。そこで、もっと組織的に万人に使いやすい装置を設計すると同時に、実際には使用者一人一人に適した装置を作るという必要がある。ところが、実際のものを作ってこのようなプロセスを踏むのでは時間的や経済的な面だけでなく、設計開発を行う方法論すらなく、言うは易いが、行おうとすると、とてもできないという現実がある。

そこでそれを解決するひとつの方法として考え出されたのが、コンピュータを使って人間に歩行のための情報を伝達するシステムを作って、それによって擬似的に人に歩行情報を系統的に変えながら提示して、その評価を行おうという考え方であった。ロバート・W・マン教授という、ボストンアームという世界で初めて実用化された筋電制御型の義手を開発した高名な先生が、MIT(マサチューセッツ工科大学)にいた。私は1979年から80年にかけてMITでマン教授と一緒に研究をしていた。その研究は次のような考え方に基づいていたのである。

これは、「基本的には装置を実際に作るわけではなくて、仮想的に伝達方式を作ってそれによって情報を人間に伝える。それで個人への最適化もするし、みんなに使いやすい装置に仕上げることも行えるようにする研究」であった。もう少し詳しく説明すると、MIT時代に考えていたのは次のようなことである。補助装置を使って実際と同じような実物大の模型の空間を人が歩く。その時の人の運動を計測する。補助装置はコンピュータでシミュレーシヨンして、人間の動きから、いまどのような環境の情報を補助装置が得ているかを計算する。そして、その情報を、考えられるさまざまな方法で人に伝える。その伝え方を変えてみてその時の人の歩行の方法を測定する。それを系統的に繰り返すことにより、どのような情報をどのように人に与えれば人が歩きやすいかが、人の歩行の仕方を評価することにより定量的にわかってくるわけである(図6)。

 

図6 人間・装置・環境シミュレータ

 

1980年の夏に帰国して、それをもう少し発展させてみた。この方法は画期的な方法ではあるが、しかし短所もある。つまり実際の空間を歩けば、物にぶつかったときには危ない。それに実際の空間というのはなかなか変えられない。そうすると、一回動いてしまうと同じ空間なら、今度は補助装置がなくても歩けてしまうわけである。

それではいけない。いろいろと空間の方も自由に変えながらもしっかりと補助装置の評価をしたい。そこで、コンピュータのようなもので空間を自由に変える必要がでてきた。このようなことがひとつの発想となって、コンピュータでバーチャル空間を作って、そこを歩きまわるというようなことを考え出したわけである。しかし、その当時は、バーチャルリアリティという言葉も生まれる前であり、コンピュータで補助装置も空間も全部作り出すのは、たいへんだった。

そこでその次の段階として考えたのが、コンピュータで全部作るのではなく、空間は実際に作るけれども、人間が歩くと危ないのでロボットにその中を歩かせる。そして、自分は安全なところで歩いてその人間の動きをロボットに全部伝えて、そのロボットを動かす。そしてそれを使って評価すれば、何かにぶつかって危ないというようなことは人間自身には起こらないし、自分がここにいながらにして向こうにいるロボットのところに自分がいるような感覚で歩ける。さらにこの方法の良い点は、目の不自由な人だけではなくて目が見える人がどう歩いているかというようなことの研究にも発展させられる点であった。

つまり、ロボットに視覚を与えて歩かせる。目の見える人でもロボットの方の視覚をずっと悪くしてくると、だんだん見えなくなってくる。そうするとその動き方がどう変わるか。そのときにどういう情報を抽出して人間に与えれば人間がうまく歩けるか。そういう研究が可能になると考えて装置を考案した。それを「盲人用歩行補助器評価装置」の特許として提案したわけである(図7)。

 

図7 盲人用歩行補助器評価装置(1980.12.26出願)

科学技術庁長官選定第42回注目発明(1983.4.18)

それと同時に、このようにロボットを別の空間で動かすということは、自分の代わりであるロボットを用いていろいろな作業ができるのではないかと発想した。われわれのところはもともとロボットを研究しているグループであり、ずっと以前からテレオペレーションを熟知していた。この技術を使うと、それまでテレオペレーションとして考えられていたものが、新しいステップを昇るわけである。この方法ならば、今までのテレオペレーションとは違ってオペレータがあたかもロボットのいる場所にいるような感覚で作業ができて、能率的にそして飛躍的に作業が進展するということに思い至った次第である。それが1980年の暮れぐらい。そのようにしてマニピュレーシヨンに関する「感覚情報呈示機能をもったマニピュレータの操縦方法」の特許が生まれたのである(図8)。

 

図8 感覚情報呈示機能をもったマニピュレータ(1981.1.11出願)

以上のような経緯があって、「テレイグジスタンス」という概念が生まれたのである。しかも、それがちょうど極限作業ロボットという1983年からスタートするプロジェクトとあいまった。極限作業ロボットのプロジェクトを興すための準備が進むうちに、「テレイグジスタンス」が非常に重要なテクノロジーだというように通産省の機械情報産業局でも認識され、それが極限作業ロボットのひとつの中核技術として認められ、育っていったわけである。もっとも逆に、ひとつのキーテクノロジーとしての「テレイグイズタンス」を中心として大型プロジェクト「極限作業ロボット」が起きたということもいえる。因みに最初の学会発表は1982年の7月に開催された計測自動制御学会の学術講演会で行われた。この時に世界で初めて「テレイグジスタンス」という概念が学問の世界に登場したのである。

このような経緯からもわかるように、アメリカの「テレプレゼンス」とはまったく独立の流れとして「テレイグジスタンス」が生まれたわけである。アメリカでも同じようなころに、宇宙開発を中心としてミンスキーなどがアイディアを出して、「テレプレゼンス」が育っていったのは歴史の偶然とはいえ、おもしろいことである。やはり技術はそれが生まれ育つタイミングというものも内包しているのかもしれない。

| テレイグジスタンスとは | テレイグジスタンスの現在 | テレイグジスタンス小史 |

| テレイグジスタンス発見の瞬間 | テレイグジスタンスはいかにして生まれたか | 大型プロジェクト「極限作業ロボット」 |

| その後のテレイグジスタンス | これからのテレイグジスタンス | 参考文献 |

 

大型プロジェクト「極限作業ロボット」

ちょうどそのころ通産省で大型プロジェクトを模索していました。1960年にエンゲルバーガーが「ユニメート」というロボットをつくり黎明期を拓いてから20年たった1980年はまさにロボット元年とも称され、日本はロボット王国とまでいわれていたのです。しかし、80年に活躍していたロボットは、いわゆる第一世代のプレーバック・ロボットで、工場内に第二世代のロボットが少し出てきたというような状況でした。私がテレイグジスタンスを研究しているのを知って、話をして欲しいと、さる通産省の課長補佐の上原氏から依頼されました。私がいろいろな構想を述べると、それをまとめて直ぐに通産省に持参するようにいわれ、休みを返上して提案書(図9)を書きました。この提案書がもとになって、1983年に「極限作業ロボット」のプロジェクトが発足したのです。

図9 大型プロジェクト「極限作業ロボット」の提案書

「極限作業ロボット」の開発官室ができて最初の1年はそこに併任しました。「極限作業ロボット」は、原子力や海洋、石油コンビナートなどで使われます。特に重要だったのが脚式です。それまでの車輪型ではなく脚式のロボットでないと、パイプをまたいだり階段を昇り降りしたりができないからです。動き回りながら作業するためのアームだけでなくハンドが必要であり、もちろん三次元の視覚や触覚もいります。そういった研究を行って、自律的なロボットを作るというのです。

しかし、自律的なロボットが作業できるのは構造化された既知の環境だけであり、極限作業環境のように構造化されていない環境では、スーパーバイザリ・コントロールが必要になります。ところがスーパーバイザリ・コントロールにも限界があり、やはり人が直接行わなければいけない局面が現れます。しかし、「極限作業ロボット」の働く環境は、危険な場所だったり遠く離れていたりするので、すぐには人が行けません。まさにテレイグジスタンスを有効に使える場面なのです。こういう枠組みを「第三世代の枠組み」とよびました。つまり、第三世代のロボットです。

その間も研究所に戻って、テレイグジスタンスの研究を続けました。すると、前述のようにアメリカでもテレイグジスタンスの考えが出てきたのです。「テレプレゼンス」です。人工知能の大御所マービン・ミンスキーが、その概念を宇宙開発にあわせて提案しました。1983年のことです。テレプレゼンスの概念は、ARAMIS報告書として提出された1983年よりもさらに早く1980年にでていたということなので、日米同時に概念が生まれたといえます。そして、実際にものをつくって実証したのは私が世界で一番早かったことになります。テレイグジスタンスはそれほど画期的なものでした。

| テレイグジスタンスとは | テレイグジスタンスの現在 | テレイグジスタンス小史 |

| テレイグジスタンス発見の瞬間 | テレイグジスタンスはいかにして生まれたか | 大型プロジェクト「極限作業ロボット」 |

| その後のテレイグジスタンス | これからのテレイグジスタンス | 参考文献 |

 

その後のテレイグジスタンス

1989年になり東京大学に戻って先端科学技術研究センタ-(先端研)で研究をしないかと誘われました。まだプロジェクトが終わっていなかったので、最初は研究所が主で東大のほうが併任、途中から東大が主で研究所が併任となりました。プロジェクトが1991年に終わったあと、テレイグジスタンスの装置も先端研に移ったのです。私は研究所と大学の両方を経験することになったわけですが、基本的には連続的であり大きな違いは感じませんでした。違いを少し感じたのは、大学は教育と研究を、国の研究所は行政と研究をそれぞれその任とするという点です。しかし、研究という面では両方とも一緒でした。研究自体は、勿論自分が興味を持ち情熱を注げるものでなくては、そもそも研究にならないわけですが、しかし国の研究所や国立大学である以上、研究は多くの人のためになるものでなくてはならなりません。多くの人たちがこれは重要だと認める研究をする責務があり、またそのような研究を推進していかなければならないのです。大学に移ってあらためてその思いを強くしたのでした。

さて、1990年になってMITが世界中の研究者に召集をかけました[Tachi 2017]。工学の様々な分野だけでなく、芸術や心理学などバーチャルリアリティとおぼしきものに携わった最先端の研究者を一堂に集めたのです。それがサンタバーバラ会議です。バーチャルリアリティという言葉は1989年に生まれたばかりで、それまでは「サイバースペ-ス」「テレイグジスタンス」「アーティフィシャル・リアリティ」「バーチャル・エンバイロンメント」などいろいろな名前でよばれていました。

サンタバーバラで一堂に介して、それぞれの研究を発表しあい、ディスカッションするなかで、分野は違うもののねらいは同じだということがわかりました。それは何かというと「三次元の空間性」「実時間の相互作用性」「自己投射性」です。そしてこの三つをそなえたものを「バーチャルリアリティ」と統一してよぼうと決めたのです。会議には私もよばれていましたが、私はそのとき、テレイグジスタンスとバーチャルリアリティはある意味では全く同一であると喝破したのです。

そこで同じ年に日本でも人工現実感とテレイグジスタンスの研究会をつくり、翌年国際会議を開催しました。ICAT (International Conference on Artificial Reality and Telexistence) です。 その後1995年に「人工現実感の基礎的研究」が文部省の重点領域研究に認められ、四つの班に分かれて研究を行いました。その成果は、4冊の本として纏められます。こうした領域ができて人工現実感の研究会と一緒になって生まれてきたのが、1996年に発足した「日本バーチャルリアリティ学会(VRSJ)」なのです。

1994年に先端研から工学部の計数工学科に移ったときのことでした。これからのロボットについて話しを伺いたいとのことで通産省の尾崎氏が訪ねてきました。 私は第一世代、第二世代、第三世代の次に、ネットワークとロボットが結びつく時代がくると申しあげた。すでにインターネットを介して、いろいろな情報が自由に行き来しているが、今のネットワ-クではアクションとかビヘイビアは伝わらない。これからの社会では、アクションとかビヘイビアが自由に伝わるようなネットワーク社会が重要となる。このときの会談がもととなり1995年、テレイグジスタンスの考え方にもとづく次世代ロボット構想の「アールキューブ」がまとめられたのです。

この構想は、ネットワークを介して誰でもがリアルタイムにロボットなどさまざまな機器を自由自在に動かすことのできる社会を目指して技術開発を進めようというものでした。つまり、臨場的実時間遠隔制御技術を確立することにより、現在いろいろな情報を自在にやりとりしているのと同様に、人間の行動をも自由自在に伝えていくシステムをつくろうという構想です。それがもとになって、『アールキューブ』という本が書かれました。この構想を一つのビジブルな世界として、それを実現するためにはどうすればよいかが話し合われ、研究計画が進んだのです。その後、1998年にアールキューブ構想の一環として「人間協調共存型ロボット(HRP)」のプロジェクトが5年計画で行われたという経緯があります。

1994年アールキューブ構想:ネットワークを介してテレイグジスタンスを可能とするアールキューブ(R3 : Real-time Remote Robotics)が提唱され、「アールキューブ」構想委員会が通商産業省(現在,経済産業省)により設置されました。また96年、構想をまとめた書籍である『アールキューブ』が出版され、その中で「アールキューブ・ストーリー」というSFで、来るべきアールキューブ社会が描かれています(図10)。

 

図10 アールキューブ構想

 

2000年人間協調共存型ロボット(HRP)アールキューブ構想の一環として実施されたHRPプロジェクトにおいて、人間型2足歩行ロボットへのテレイグジスタンスの実装がなされました[Tachi et al. 2003](図11)。

 

図11 二足歩行ロボットへのテレイグジスタンス

2001年ロボットホンの開発:ロボットを人間に対するインタフェースとして積極的に利用することを提案し、人間のコミュニケーションに使用するロボットホンを開発しました(図12)。

 

図12 ロボットホンで動作を伝える

2005TELESARの開発:操作者の「臨場感」に加えて、遠隔地側で操作者の「存在感」を実装する相互テレイグジスタンスの概念を提唱し、実証システムとしてTELESARⅡを開発しました。その人がロボットの中に入っているように見えます[Tachi et al. 2008]。なお、TELESARⅡを用いた相互テレイグジスタンスシステムTELEsarPHONEは、愛・地球博に出展されました(図13)。

 

図13 臨場感と存在感を伝える相互テレイグジスタンス

2007TELESAR の開発:6自由度の首機構に両眼カメラが取り付けられ回り込みなどの自由な動作が可能となりました(図14)。

 

図14 回り込みによる臨場感と作業性の向上

2008 Haptic Telexistence: テレイグジスタンスにおいて触覚が重要であることからGelForceと呼ぶ分布ベクトル力場を計測できる触覚センサを開発し、加えて、その触覚情報を人間に提示するための方法として視覚における三原色と同様の仕組みを触覚にも求める触原色の考えを2002年に提案[舘 2002]、その解明と実現を経皮電気刺激や振動刺激などの研究を通して行い実装しました。また、遭遇型と称する固有受容感覚提示法もあわせ組み込みました(図15)。

 

図15 触覚を伝えるハプティクテレイグジスタンス

2010VR空間に集う:TWISTER(Telexistence Wide-angle Immersive STERoscope)という眼鏡なしで360度を立体視可能なシステムを研究開発し、それをブースとして、多人数の人がそれぞれTWISTERを利用し、それぞれが離れたところにいても、あたかも同一場所に参集したのと等価な状態で互いの顔を見ながらコミュニケーションすることを可能とするシステムを研究開発しました[渡邊ほか2012](図16)。

 

図16 VR空間に集う

2011 :会場へ遠隔参加するTELESAR IVTWISTERを用いて、遠隔から例えばパーティ会場に遠隔参加することを可能とするシステムを開発しました。会場に居る人も、遠隔から参加した人の顔を見ながら、また握手をしたりして親交を深められます[舘ほか 2012](図17)。

 

図17 パーティ会場へ遠隔参加

2012年:細やかな触感を伝えるTELESAR V53自由度の肢体を駆使した視覚や聴覚の臨場感溢れる伝達に加えて、ロボットが手に取った物の材質や温度などの遠隔環境の細やかな感触を人に伝えることのできる触覚テレイグジスタンスに、2012年7月、世界で初めて成功しました[Tachi et al. 2012]。8月には、米国のSIGGRAPHで展示公開されました(図18)。

 

図18 細やかな触感の伝達

2013 TeluBeeの開発:世界中にロボットを配して、誰でもが自在にどこにでもテレイグジスタンスできる社会を目指して研究を進め、その一環として、家庭でも使える簡易型のテレイグジスタンス視聴覚ロボットを開発しました(図19)。

 

図19 世界中のロボットに入り込む

2014年:Flying TelexistenceDroneを分身として自由に空中からのテレイグジスタンスを目指すシステムを開発(図20)。

 

図20 テレイグジスタンスで大空を翔る

 

| テレイグジスタンスとは | テレイグジスタンスの現在 | テレイグジスタンス小史 |

| テレイグジスタンス発見の瞬間 | テレイグジスタンスはいかにして生まれたか | 大型プロジェクト「極限作業ロボット」 |

| その後のテレイグジスタンス | これからのテレイグジスタンス | 参考文献 |

 

これからのテレイグジスタンス[舘 2016]

現在我が国をはじめ先進諸国では、大都市への人口の一極集中、高齢者の増加と少子化による働き手の減少、移民による文化摩擦や治安の悪化、子育てと労働の両立、通勤に時間がとられ自分の時間が持てないなど、多くの困難な課題を抱えています。

人の移動の概念を変え、実際的な移動を伴うこと無く身体機能を移動させることができれば、この困難を克服することができます。いままでの遠隔からの在宅勤務は、映像や資料、また会話などを伝える遠隔コミュニケーションに限られ、実際にその場に居ないと行えない工場での労働や建設現場の作業などを在宅で行うことは不可能でした。テレイグジスタンスは、五感のみを伝える遠隔コミュニケーションという従来の範疇を逸脱して、人間の身体機能そのものを伝達してしまう画期的な方法です。

身体機能を移動できるテレイグジスタンス社会が実現すれば、人と産業との関わりや社会のありかたが、根幹から変革します。労働環境の問題が解消され、悪環境で働かなくても済むのです。どんな場所に工場を置いても、仕事をする人を全国、あるいは全世界から集められるため、いままでとは工場の立地条件が革命的にかわり大都市への集中が避けられます。国外の労働者も遠隔から就労できるため、移民問題を解消します。さらに時差を利用することで24時間の労働力を複数の国外拠点から確保でき、どこの国の就労者も夜勤が不要となります。男女問わず育児しながらの労働参加が可能となり、子育てをしやすい社会となります。

グローバルなビジネスにおける移動による時間的コストも解消する。通勤に伴う移動が不要となり、交通問題を緩和できる。職住近接が必ずしも必要ではなくなり、都市への人口集中が緩和され、ワーク・ライフ・バランスを改善し、本人が住みたい場所に住んで、生きがいのある生活を行えるようになると予測されます。

また義体である分身ロボットにより身体機能を補綴・拡張することで、高齢者や障碍者でも若者に体力的に負けず、豊富な経験を活かした労働参加が可能となり労働の質が格段に向上し日本の活力がよみがえることが期待できます。世界的に一流のスキルを有する技術者・医師等の専門家の招聘も容易になり、職能に応じた人材の最適配置が行えるのです。

将来的には、災害時や非常時の緊急対応を安全な場所から瞬時に行うとともに、常時には、医療や介護、また医師や専門家の過疎地への派遣が行えます。また、新たな観光・旅行・ショッピング・レジャーなどの産業創出によって、国民の利便性と生きがいを飛躍的に向上し、クリーンで省エネルギーな社会における健やかで快適な生活が実現されると見込まれています(図21)。 

図21 テレイグジスタンスによる遠隔就労

 

| テレイグジスタンスとは | テレイグジスタンス小史 | テレイグジスタンス発見の瞬間 | テレイグジスタンスはいかにして生まれたか |

| 大型プロジェクト「極限作業ロボット」 | その後のテレイグジスタンス | これからのテレイグジスタンス |

 

参考文献

[舘 1982] 舘 暲,阿部 稔:”テレイグジスタンスの研究(第1報)―視覚ディスプレイの設計―“, 第21回SICE学術講演会, pp.167-168, 1982.

[舘、小森谷1982] 舘 暲, 小森谷 清: “第3世代ロボット”, 計測自動制御学会誌 計測と制御, Vol.21, No.12, pp.1140-1146, 1982.

[舘 1986] 舘 暲: テレイグジスタンス -未来の夢と現在の技術-, 日本ロボット学会誌, Vol.4, No.3, pp.295-300, 1986.

[舘、荒井 1989] 舘 暲, 荒井裕彦: テレイグジスタンスにおける視覚情報提示系の設計と評価日本ロボット学会誌, Vol.7, No.4, pp.314-326, 1989.

[舘 1991] 舘 暲: テレイグジスタンス, 計測自動制御学会誌 計測と制御, Vol.30, No.6, pp.465-471 (1991.6)

[舘、廣瀬 1992] 舘 暲, 廣瀬通孝 (編著): バーチャル・テック・ラボ, 工業調査会, 1992.

[舘 1992] 舘 暲: 人工現実感, 日刊工業新聞社, ISBN4-526-03189-5, 1992.

[舘 1997] 舘 暲: バーチャルリアリティとロボティクス, 日本ロボット学会誌, Vol.15, No.4, p.512-515, 1997.

[舘ほか2011] 舘 暲・佐藤 誠・廣瀬通孝(監修・執筆),日本バーチャルリアリティ学会編:バーチャルリアリティ学,コロナ社,ISBN978-4-904490-05-1, 2011.

[舘 2002] 舘 暲: バーチャルリアリティにおける触覚の役割, 電気学会論文誌E,Vol.122, No.10, pp.461-464, 2002.

[渡邊ほか 2012] 渡邊孝一, 南澤孝太, 新居英明, 舘 暲: 全周囲裸眼立体ディスプレイを用いたサイバースペースへのテレイグジスタンス,日本バーチャルリアリティ学会論文誌, Vol.17, No.2, pp91-100, 2012.

[舘ほか 2012] 舘 暲, 渡邊孝一, 竹下佳佑, 南澤孝太, 吉田匠, 佐藤克成:再帰性投影技術と全周囲裸眼3Dディスプレイを用いて存在感と臨場感を実現する相互テレイグジスタンスシステム:TELESAR4, 日本バーチャルリアリティ学会論文誌, Vol.17, No.1, pp.11-21, 2012.

[舘 2015] 舘 暲: テレイグジスタンス, 日本ロボット学会誌, Vol.33, No.4,pp.215-221, 2015.

[舘 2016] 舘 暲:20年後のテレイグジスタンス、日本バーチャルリアリティ学会誌、Vol.21, No.3, pp.34-37, 2016.

[Tachi et al. 1984] S.Tachi, K.Tanie, K.Komoriya and M.Kaneko: Tele-existence(I): Design and Evaluation of a Visual Display with Senstion of Presence, in A.Morecki et al. ed., Theory and Practice of Robots and Manipulators, pp.245-254, Kogan Page, 1984.

[Tachi and Yasuda 1994] Susumu Tachi and Ken-ichi Yasuda: Evaluation Experiments of a Telexistence Manipulation System, Presence, Vol.3, No.1, pp.35-44, 1994.

[Tachi et al. 2003] Susumu Tachi, Kiyoshi Komoriya, Kazuya Sawada, Takashi Nishiyama, Toshiyuki Itoko, Masami Kobayashi and Kozo Inoue: Telexistence Cockpit for Humanoid Robot Control, Advanced Robotics, Vol.17, No.3, pp.199-217, 2003.

[Tachi et al. 2008] Susumu Tachi, Naoki Kawakami, Hideaki Nii, Kouichi Watanabe and Kouta Minamizawa: TELEsarPHONE: Mutual Telexistence Master Slave Communication System based on Retroreflective Projection Technology, SICE Journal of Control, Measurement, and System Integration, Vol.1, No.5, pp.335-344, 2008.

[Tachi 2010] Susumu Tachi: Telexistence, World Scientific, ISBN-13 978-981-283-633-5, 2010.

[Tachi et al. 2012] Susumu Tachi, Kouta Minamizawa, Masahiko Furukawa and Charith Lasantha Fernando: Telexistence - from 1980 to 2012, Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS2012), pp.5440-5441, Vilamoura, Algarve, Portugal, 2012.

[Tachi 2015] Susumu Tachi: Telexistence -Past, Present, and Future-, in G. Brunnett et al. ed. Virtual Realities, ISBN 978-3-319-17042-8, Springer, pp.229-259, 2015.

[Scoică 2015] Adrian Scoică: Susumu Tachi -The Scientist who Invented Telexistence, ACM Crossroads, vol.22, no.1, pp.61-62, 2015.

[Tachi 2016] Susumu Tachi: Telexistence: Enabling Humans to be Virtually Ubiquitous, Computer Graphics and Applications, vol. 36, No.1, pp.8-14, 2016.

[Tachi 2017] Susumu Tachi: Memory of the Early Days and a View toward the Future, Presence, Vol.25, No.3, pp.239-246, 2016.