成果

システム情報第6研究室
(石川 正俊教授,渡辺 義浩講師)

高速多指ハンドを用いたダイナミックキャッチング:

これまでに様々なロボットハンドの開発が進められてきたが,その多くは静的な把握や準静的な運動に対して設計されており,ダイナミックで高速な運動を行なわせるのは難しかった.この問題を解決するために,瞬間的に高出力が可能なアクチュエータを開発し,高速な運動に耐えうる軽量高速多指ロボットハンドを実現した.開発したハンドは3本指8自由度を持ち,0.1秒で指を閉じる高速な運動能力を持つ.これを用いて,約1mの高さから落下する球や円柱のキャッチングを実現した.落下位置が指の中心からずれた場合でも,指と対象との衝突を利用して対象の姿勢を瞬時に回転させることにより,安定なキャッチングに成功した.

多関節マニピュレータを用いた高速バッティング:

ダイナミックマニピュレーションの一例としてバッティングタスクを実現した.高速で確実なバッティングを実現するために,ボールの速度に関わらずバットを高速に振り切るスウィング動作と,バットの芯で正確に捉えるヒッティング動作を統合するハイブリッドな軌道生成アルゴリズムを提案した.前者のスウィング軌道は高速動作となるようにあらかじめ最適化する一方で,後者のヒッティング動作は視覚フィードバックにより1msごとのボールの動きに合わせてマニピュレータの軌道を修正するように設定した.約2.5m離れた位置から人間が投げたボールをスウィング時間約0.2sで打ち返すことに成功した.視覚フィードバックに基づいているので,変化球に対しても対応することができた.

ビジョンチップを用いた実時間視覚処理システム:

光検出器(PD)と処理回路(PE)を画素ごとに直結したものを1チップに集積化することにより,従来のビデオフレームレートによる制約をはるかに越える高速リアルタイムビジョンシステムを開発した.本システムでは,感度特性制御などの新たな機能を実現するとともに,小型化,高速化を目指した実装を行った.動的再構成可能な SIMDアレイアーキテクチャを実装した 64×64画素 のビジョンチップ,SPARSIS アーキテクチャを FPGA に実装したコントローラチップ ,I/O インタフェース,電源モジュールといった構成要素をそれぞれ 76mm×76mm の基板に実装し,必要に応じてこれらをスタックして用いる構造を取ることで,拡張性を確保することができた.

マイクロビジュアルフィードバック(MVF)システム:

顕微鏡下で代表されるマイクロ世界における作業のほとんどは, 環境に合わせた作業を行うためのスキルを人間が習得する必要があった.この状況を打開し, 人間に過度な負担をかけることなくマイクロ世界での自律的な操作を目指して, マイクロビジュアルフィードバック(MVF)システムを開発し た. MVFは高速視覚によって, 微小な対象の情報を高速・高精度・非接触に計測・フィードバックすることで微小対象の自律的な制御を行う手法である.開発したシステムにより,運動する微生物の顕微鏡視野内トラッキングを実現した.運動する微生物を顕微鏡で観測しようとする場合, 対象がすぐに顕微鏡視野から外れてしまい, 継続的な観測が難しいという問 題点があるが,視覚フィードバック制御により,生物を顕微鏡視野内に補足しつづけることができた.

レーザーに基づく能動的トラッキングシステム:

携帯用電子機器の小規模化に伴い,情報の入力形態は興味深い課題となってきている.現状では,キーボードやマウス,PDAのためのタッチパネルやスタイラスといったデバイスが用いられているが,次の段階としてこれらの入力デバイスの必要性をなくすことが考えられる.これによって,携帯機器の前において素手でジェスチャーを実行するだけで,データの入力が可能となる.我々が開発したシステムは,システムは,レーザー光,可動ミラー,フォトディテクターから構成されており,アクティブなトラッキングによって手や指のジェスチャーを認識する.このアクティブトラッキングシステムは,ユーザーや環境に対する拘束が少ない点,リアルタイムで3次元認識を可能とする点,システムのワンチップ化が可能であるといった優れた点を持っている.

Khronos Projector (クロノス・プロジェクター):

'Khronos Projector'は既存にはない手法により,映像コンテンツを見せることができるインターフェースである.ユーザーは,実際に映像の投影されたスクリーンを触り変形させることで, 映像の一部分の時間を進ませたり,戻したりできる.スクリーンの変形は高速な視覚システムで計測している.スクリーンの裏面を特別な照明配置により照明することでその変形を画像として捉えることで,ユーザーの手によって押された圧力部の大きさと位置をリアルタイムに獲得している.その結果に基づいて場所によって異なる時間の映像を合成し,スクリーンに投影している.本研究は平成17年度(第9回)文化庁メディア芸術祭アート部門において大賞を受賞した.