« ロボットと倫理学 | トップページ | 2017年版貨物時刻表 »

2017/03/08

SAOのナーヴギアは実現可能か?

2017年3月8日

昨日書いた「人間はアンドロイドになれるか」(石黒浩著、文春新書)に面白い記述がありました。石黒先生のアンドロイドにはリモコンバージョンも有り、脳の信号からアンドロイドを動かすことができます。これは視覚フィードバックが大事で、「右手をこう動かそう」と思って実際にその通りに右手が動くと、実際に動いたと認識するわけですね。石黒先生の実験では身体が動かないように固定したそうですが、動きに慣れれば、思うだけで実際には身体動かさなくても、アンドロイドを動かすことができるはずです。

またアンドロイドには視覚しかなくても、実際にアンドロイドの目で見ていると、アンドロイドが触られたときに自分が触られたように感じるそうです。また別の研究者の実験では、実際に自分の手がものに触るのを見ていると、触っていないのに「触った」と感じるそうです。触覚は視覚で欺瞞しやすいそうです。

アンドロイドで可能なら、ヴァーチャルリアリティ(以下VR)の世界ならもっと簡単にできると考えました。座席にシートベルトで身体を固定し、一応手足は不用意に動かして(勝手に動いて)も怪我しないように周りはクッション性のものにし、ヘッドギアの視野に写るのはVRの自分のアバターが見た映像で、ヘッドホンからアバターが聞くはずの音を流せば、実際には覚醒状態にありながらどっぷりフルダイブです。暗い個室を使えば、外乱も入らずに効果的でしょうね。ただVRでのアバターの動きの再現は、高精度が求められますね。物に当たっているはずなのにアバターの手がその先へ動いたり、実際には動かない角度で手が動いたりしたら、視覚でのフィードバックが破綻してフルダイブ感が消滅してしまうと思います。

問題は脳からの信号をどうやって取り出すかで、本には詳しくは載っていません。実験なので、端子を実際に脳表面まで差し込んだのかもしれません。ただ取り出すのは手足に関する運動命令だけなので、ポイントさえわかればそこに端子を貼り付けるだけで取り出せると思います。

IBM製の「ナーヴギア」は実際に手を動かしたり、足踏みしたりしてその動作をモーションキャプチャーで取っているようですが、信号さえ取れれば、身体を動かさなくても思うだけでアバターを動かすことは可能なようです。そしてSAO中のナーヴギアが延髄のところでキャンセルしている身体への動作命令は(実際にやろうとすると、延髄のところに機器を埋め込まなければいけないそうですが)、実際に身体は動かない強度での「動かしたい」と思う命令をとらえることで、キャンセルする必要は無くなるようです。AWの「思考発声」と同じ原理かもしれません。

触覚はないのに擬似的に触覚を再現させるのは視覚での欺瞞であるため、視覚情報が入らなくなると、触覚が再現されないようです。例えばキスをされる場合は距離的に視覚情報が入らないので、その感覚が無いとか。ただ抱きしめられる感覚はあるそうなので、SAOの中にどっぷり入ってキリトかアスナになりきろうと思ったら、そのあたりで我慢しましょう(笑)。

« ロボットと倫理学 | トップページ | 2017年版貨物時刻表 »

日記・コラム・つぶやき」カテゴリの記事

コメント

コメントを書く

(ウェブ上には掲載しません)

トラックバック

この記事のトラックバックURL:
http://app.cocolog-nifty.com/t/trackback/97180/64988168

この記事へのトラックバック一覧です: SAOのナーヴギアは実現可能か?:

« ロボットと倫理学 | トップページ | 2017年版貨物時刻表 »

フォト
2017年8月
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31    

最近のトラックバック

無料ブログはココログ