Movie Theater

    Last updated: Apr. 23, 2019.

研究成果,および研究室所属の学部生による実習制作作品に関する動画を Youtube で公開しています.各画像をクリックすると Youtube で動画を再生します.

研究成果デモ動画

3次元センシング技術 画像センシング技術 ヒューマンセンシング技術 その他の動画

学部生による実習制作作品(教育成果)

2018年度 2017年度 2016年度 2015年度 2014年度 2013年度 2012年度 2011年度
2010年度 2009年度

 新着動画

深層学習による「機能認識」を応用したお茶会ロボット(NEDOプロジェクト成果) 音声認識結果に基づくUR3を
用いた食事支援ロボット
モーションキャプチャを
用いた動作軌跡の認識による
3D物体造形システム
キーポイントマッチング
および色認識による
「学部長アシスタント」
自動押印ロボット

YOLOを用いた高難度な
フラッシュ暗算の
自動解答システム
Kinectを用いた骨格推定
による居眠り監視システム
音声認識と色認識を用いた
果実自動収穫システム

研究成果デモ動画

橋本研究室では,3次元センシング,画像センシング,ヒューマンセンシングの3つの研究領域において,先進的かつ実用的な研究を行っています.
ここでは,学会発表等で紹介したデモや実験に関する動画を公開しています.

3次元センシング技術

深層学習による「機能認識」を応用したお茶会ロボット(NEDOプロジェクト成果) NEDOリアルタイム
機能属性認識
2017Dec(中京大学)
機能属性認識と一般物体認識を利用した生活支援ロボットのプロトタイプ(NEDOプロジェクト成果) Global Reference Frame
によるリアルタイム
6DoF 認識
深層学習を使って,対象物の各部位のカタチから「Contain」「Grasp」などの機能情報を抽出し,これらをもとにして,ロボットが何をどうすべきか,自律的にタスクを生成し,実行します. 日用品のリアルタイム「機能属性」認識技術です. 「コップにジュースをいれて持ってきて」 のような人の音声指令を理解して動作する,生活支援ロボットのプロトシステムを作成しました.【表彰】IMEC 2017 優秀講演賞 平面的な見え方の物体に有効な3DオリエンテーションであるGRFを考案し,6自由度姿勢追跡に応用しました.【表彰】iMec2014優秀講演賞

可観測性を考慮した
ベクトルペアによる
3次元位置姿勢認識と
部品ピッキング
ばら積み部品の
自動認識システム
最適ベクトルベアを
用いた物体認識
シーン中で安定的に観測可能であることと,特徴ベクトルの独自性が高いことを条件として選択した3次元特徴点を用いて物体の位置姿勢を認識します. ばら積み物体の位置姿勢を高信頼かつ高速に推定し,ピッキングするシステムを開発しました.【表彰】SSII
2012優秀学術賞他1件
ばら積みシーンの生成学習による高信頼な3次元物体認識です.認識した対象物をオレンジ色で表示しています.【表彰】DIA2013研究奨励 他1件

画像センシング技術

周辺類似物との
識別性能が高い
テンプレートマッチング
照明変動に頑健な
テンプレートマッチング
画像間共起確率に
基づく照明変動に
強い物体検出
画素ペア学習を用いた
部品認識システム
DPTMのリアルタイムデモを,画像センシングシンポジウム(SSII 2013)にて展示しました.【表彰】DIA2012研究奨励賞他1件 SCPTMのリアルタイムデモを,画像センシングシンポジウム(SSII 2013)にて展示しました.【表彰】第12回CVIM卒論セッション優秀賞他3件 画素の時間的安定性を考慮したマッチング手法(SCPTM )を大きな照明変動が含まれる画像群に適用しました. 周辺物との識別性能を考慮した画素選択型テンプレートマッチング(DPTM)です.

サブトラッカの
最適配置に基づく
オクルージョンに強い
物体追跡
濃度共起確率に基づく
ユニーク画素を用いた
超高速テンプレート
マッチング(CPTM)
最適選択されたサブトラッカ群を用いた,オクルージョンに強い物体追跡です.青枠がサブトラッカです. テンプレート画像を分析して,マッチングに使用する画素数を大幅に削減します.従来手法の100~1000倍程度の高速化が可能です.
【表彰】第14回PRMUアルゴリズムコンテスト優秀賞

ヒューマンセンシング技術

満足度推定のための
注目度・笑顔度
センシングシステム
ユーザーの感性を
反映した商品設計
支援システム(試作)
一人称視点カメラを
用いた対象物に対する
ユーザの注目度推定手法
トイレ空間における
人間の非定常動作検出
メガネ型カメラを用いた対象物に対する注目度と,固定カメラを用いた対象物を観測している時の笑顔度を推定する手法を開発した. 物体に対する感性指標を自動で推定する手法を用いて,3次元物体モデルの検索システムおよび形状を修正するシステムを試作した. 一人称視点カメラから取得した動画を分析し,対象物に対するユーザーの注目度を推定します. トイレ空間内における人間の動作を高信頼に識別することにより,非定常な動作(うずくまり動作)を自動で検出します.

顔キーポイント特徴の
移動方向コードに基づく
個人依存しにくい
喜び表情識別
組み立て作業における
手動作と視線情報の
自動記録システム
ピアノ演奏の
誤り提示システム
(J.S.Bach, Menuet)
生産ラインの組み立て作業
における手の動作
自動記録システム
顔キーポイントの移動ベクトルの方向と大きさをコード化(抽象化)することによって,個人依存しにくい表情識別を実現した. モノの組み立て作業において手動作と視線情報を自動記録するシステムです. 運指認識と音列照合の2つの要素技術を組み合わせた誤り検出に基づく演奏支援システムです. 3つのシーンごとに動作を記録した結果です.作業時間に着目しながら動作のプロセスを確認できます.

ロボット安全のための
アンビエントセンシング
運指とミスタッチを検出
できるピアノ演奏スキル
評価システム
(J.S.Bach, Prelude)
3-Dハンドモデルを用いた
マーカレス・ピアノ
運指認識
(J.S.Bach, Prelude)
3-Dハンドモデルを用いた
オンライン画像生成に
基づく仮説検証型
ピアノ運指認識
(メリーさんのひつじ)
多数の小型距離センサ群の出力を分析して室内の人物存在位置を推定します.右側は存在位置に対応したセル番号です. マーカレス運指認識技術と音列照合技術を組み合わせた,スキル評価システムのプロトタイプです. 汎用3-Dハンドモデルを用いるので演奏者によらず認識可能です.Prelude(J.S.Bach)に適用しました. 3-Dハンドモデルを用いたピアノ運指認識手法の実験結果です.鍵盤の青色が認識成功を示しています.

距離画像シーケンスの
分析に基づく
ピアノ演奏における
運指の自動認識
(J.S.Bach, Menuet)
距離画像シーケンスの
分析に基づく
ピアノ演奏における
運指の自動認識
(かっこう)
学習型ピアノ運指認識手法を,バッハ「メヌエット」に適用した.青枠は認識成功,赤枠は失敗を示しています. ボトムアップ型運指認識手法を「かっこう」に適用してみました.○印は認識成功,×印は失敗を示しています.
実験風景は→こちら

その他の動画

橋本研究室1分間紹介
(物体検出技術)
中京大学橋本研における物体検出に関する研究成果です.ロボットセンシングに関する技術を3種類ご紹介します.

学部生による実習制作作品

橋本研究室では,研究室に配属された学部生に対して,ロボット制御や画像処理,情報処理全般に関する 基礎および応用教育を実施しています.ここでは,学部生(主に2年生)が実習授業で制作した数々の作品 を公開しています.

2018年度

音声認識結果に基づくUR3を
用いた食事支援ロボット
モーションキャプチャを
用いた動作軌跡の認識による
3D物体造形システム
キーポイントマッチング
および色認識による
「学部長アシスタント」
自動押印ロボット
YOLOを用いた高難度な
フラッシュ暗算の
自動解答システム
音声により指示された食品を色認識し,食事支援をおこなうロボットシステムを開発しました. ユーザが空間内で動かしたペンの立体的な動きを認識し,描かれた形を3Dプリンタで再現するシステムを開発しました. 書類に印刷された押印欄の種類や位置姿勢を認識し,自動押印ロボットを開発しました. 次々と画面に高速表示される数字をカメラで撮影し,ディープラーニングによって認識する,フラッシュ暗算解答システムを開発しました.

Kinectを用いた骨格推定
による居眠り監視システム
音声認識と色認識を用いた
果実自動収穫システム
3Dセンサで取得した人の動き情報をもとに居眠り動作を検知し,自動的に起こすロボットを開発しました. ユーザが音声により指定した果実を,色情報を用いて認識し,自動で収穫するロボットを開発しました.

2017年度

「ハノイの塔」の攻略 モーションキャプチャを用いた自動車の遠隔操作 ロボットによる商品の袋詰め作業支援システム 音声認識とYOLOを用いた
商品探索システムの開発
色識別を用いた小型ロボット MindStorm の自動制御により,「ハノイの塔」というパズルゲームをクリアした. モーションキャプチャを用いて,人間の運転動作情報を取得し,これに基づいて自動車を遠隔操作するシステムを開発しました. 形や色情報から商品を認識し,ロボットアームJACOを自動制御することにより,商品の袋詰め作業をおこなうシステムを開発しました. 音声認識システムにより,欲しい商品の特徴を音声で認識し,YOLOにより,特徴に合った商品を探索するシステムを開発しました.

ROSを用いたロボット制御による積み木の
自動組み立てシステム
SRGAN を用いた動画像の
高解像度化
駐車場の空きスペース
通知システム
DCGAN による画像生成を用いた真贋判定ゲームの開発
ROSを用いてロボットアームを制御し,ランダムに置かれた4つの積み木を自動で組み立てるシステムを開発しました. DeepLearning (SRGAN) を用いて動画像の高解像度化をおこない,元の低解像度の動画像と比較することによって効果を確認しました. Deep Learning を用いて,駐車場の駐車可能位置と駐車した車の種類と位置を検出し,通知するシステムを開発しました. DCGAN により生成された画像がどれほど自然であるかを確認するために真贋判定ゲームを開発しました.

2016年度

自動ピッキング
クレーンゲーム
YOLOによる物体認識を
用いた全自動お片付け
ロボットの開発
Deep Learningを用いた
物体認識による注目物体通知システムの開発
対話知能を搭載した
ロボットモデルの
音声操作デモ
画像処理によって認識した対象物を自動でピッキングするクレーンゲームを制作しました. 車載カメラの画像に対してYOLOを用いることで対象物を認識し,NXTが全自動でお片づけをおこなうロボットを開発いたしました. Deep Learningを用いて,めがね型カメラから取得した画像中に存在する対象物を検出し,注目度が最も高いものを通知するシステムを開発しました. 音声で対象物を指定し、シミュレータ内のロボットアームが指定された対象物をピッキングするシステムを制作しました.

DeepLearningを用いた
鉄道車両の識別
YOLOによるリアル物体認識と連携したROS環境下での
ロボットシミュレータ
人の表情をまねする
ロボットの開発
LeapMotionを用いた
じゃんけんロボットの開発
DeepLearningを用いて近鉄名古屋駅に発着する鉄道全7種類を自動で識別するシステムを制作しました. YOLOにより認識した対象物を,ROS環境下のロボットシミュレータで把持するデモを制作いたしました. 人の6表情(驚き,喜び,悲しみ,怒り,嫌悪,恐れ)をまねするロボットを制作しました. Leap Motionを用いて人の手の形を認識し,じゃんけんで必ず勝つロボットを制作しました.

2015年度

人間の表情を真似する
顔ロボットの開発
自動お片付けロボット 6DoFロボットアームによる
対象物の自動ピッキング
ターンテーブル制御と
Kinectを用いた
3D対象物の
全周囲スキャナの開発
人間の「喜び」「悲しみ」「驚き」「怒り」の4種の表情を画像認識し,それらを真似する顔ロボットを制作いたしました. 障害物を回避しながら,ボールを色によって分別する「自動お片付けロボット」を制作しました. 画像処理により認識した対象物をピッキングする物流用途を想定したロボットシステムを制作しました. 自動制御されたターンテーブル上の物体に対してKinectで取得した多視点の3Dデータをもとに全周囲モデルを生成するシステムを開発した.

小型走行ロボットを用いた
人間との対戦デモ
小型ロボット
LEGO-Mindstormを用いた
全自動すごろくシステム
ロボットの
旗揚げ動作を利用した
遠隔メッセージ通信
簡便な
ロボット操縦システムと
そのボール運搬への応用
PCが制御する砲台型ロボットと,人間が制御する砲台型ロボットが弾を撃ち合って対戦するデモシステムを実現しました. サイコロの目を自動的に画像認識し,出た目のマス分だけロボットが進むすごろくゲームを制作しました. ユーザが指定した文字列をコード化してロボットの旗揚げ動作で表現し,それを画像処理して文字列を復元するシステムを開発しました. 天井とロボットに取り付けられたWebカメラの視点を適応的に切り替えることによって 効率よく対象物(ボール)を運搬するロボットを制作しました.

2014年度

新型Mindstorm(EV3)を
用いた自動走行
簡易ロボットアーム
MR-999 の自動制御化
新型Mindstorm(EV3)を
用いた自動走行ロボット
Kinectを用いた
3D独自キャラクタ制作
EV3による2つのコースを自動走行するロボットと,複数の障害物がある環境上の自動制御を実現しました. 手動で制御するロボットアームをカメラで取得された画像をもとにPCで自動制御できるように改造した. EV3による走行ロボットにカメラを接続し,カメラから得られた情報をもとに自動走行するロボットを作成した. Kinectを用いて顔データをセンシングし,PCLの関数を用いて点群データを処理し,3Dプリンタによって独自キャラクタを出力した.

サーボモータを用いた
パンチルトカメラの
自動制御
ヒューマンビジョンコンポの
表情認識機能による
演奏アプリの開発
複数カメラを用いた
ラジコンカーのアラウンド
ビューモニターの制作
ラジコンカーの自動制御
によるプラトーン走行
人の顔を検出し,常に画面の中心に捉え続け,写真を撮影するカメラを制作しました. HVC-Cを用いて表情を認識することにより,表情に対応した音楽を流す携帯端末のアプリを作成しました. アラウンドビューモニターを作成し,このモニターによってラジコンカーを操作し,縦列駐車します. ラジコンカーに設置したマーカーを検出し,自動でラジコンカーを制御し,プラトーン走行します.

Leap Motionを用いた
シューティングゲームの
開発
Kinectのジェスチャー
認識を用いたものまね
ロボットによるボクシング
Leap Motionを利用して指先座標を取得し,その座標を用いたシューティングゲームを開発しました. Kinectで人のジェスチャーを認識し,ロボットが人の動きをまねし,ボクシングする.

2013年度

Kinectセンサを用いた
ものまね
ヒューマノイドロボット
平面動物体に対する
プロジェクションマッピング
Kinectを用いた
体感型ブロック崩しゲーム
Webカメラを用いた
メガローバーの制御による
自動追尾走行
人間の手足のジェスチャーをセンサを使って認識し,人間型ロボットに同じ動作をさせてみました.
Kinectを用いて平面物体(建築物と歩行者)を認識し,適応的に合成映像を投影できました. 人間のジェスチャーを認識して,ブロック崩しゲームを体感的に操作するプログラムを開発しました. 台車型ロボットにPCと小型カメラを搭載し,色認識に基づく歩行者追尾を実現した.

Kinectを用いた
メガローバー制御による
障害物回避走行
プロジェクタとターンテーブルを用いた光切断による
全周囲モデラー
Kinectを用いた
人間の動作認識による
MindStorm制御
Androidを用いた顔認証
台車型ロボットにPCと距離センサを搭載し,いま流行の自動走行を実現した. 光切断の原理を用いて,ターンテーブル上の3次元物体を計測し,全周囲モデルを生成しました. 人間の動きやジェスチャーを認識して,小型ラジコン自動車を自由自在に制御するゲームを開発しました. カメラ映像からの顔検出および登録した特定の顔の認識プログラムを,Android端末に実装しました.

Mindstormsを用いた
安全自動車(ASV)の開発
RaspberryPiによる
移動物体検出
Gainer miniを用いた外部電子回路制御実験
【押しボタン式加算器】
Gainer miniを用いた外部電子回路制御実験
【ワンタッチ画像処理】
LEGO MinadstormsにKinectセンサを搭載し,障害物や歩行者を認識して安全な走行を実現しました. 超小型PCである”ラズベリーパイ”にカメラを接続し,移動ブツの検出と記録を実現しました. Gainer miniで回路を制御し,加算器の動作をするプログラムを製作しました. Gainer miniで回路を制御し,スイッチのON/OFFで画像処理するプログラムを作成しました.

2012年度

LEGO Mindstormsによる
ボール運び
LEGO Mindstormsによる
2次元マーク認識
道路標識認識による
LEGO Mindstormsの
自律走行
MELFAハンドアイによる
構造物自動組み立て
LEGO Mindstorms上のカ
メラ映像をBluetooth経由でPCに転送し,ボールの自動認識と運搬を実現した.
LEGO Mindstormsにカメラを搭載し,矢印(→)の方向を認識するVisualFeedback
走行車を試作しました.
LEGO Mindstormsを用いて道路標識を認識し,標識に従って自律走行します. ロボットアームMELFAに搭載したカメラで設計写真を認識し,積み木をピッキングして構造物を組立てる.

ペッパーズゴースト錯視を
用いた3次元Viewer
PCによるビュートローバーのモータ制御
ペッパーズゴースト錯視の原理を応用して,アクリル板ピラミット内に3次元物体のアニメーションを作成した. PCで生成したモータ制御データをBluetooth経由でVstone Beauto Roverに転送し,走行制御します.

2011年度

LEGO Mindstormによる
アームロボットの開発と制御
LEGO Mindstormによる
顔の自動追尾
MELFAハンドアイによる
3種類の円柱識別&挿入
視線検出による
関心度測定
LEGO Mindstormsを用いた全自動クリケットロボットを開発しました.逆運動学を解いて,関節角を演算する. LEGO Mindstormsに搭載したカメラ映像をBluetooth経由でPCに転送し,顔の追跡を実現しました. ロボットアームMELFAのハンドアイで円柱と円孔を認識し,3点レーザ測距により斜め挿入を実現しました. ユーザーの視線を検出し,
連続注視時間による関心度評価グラフを表示します.

CPTMを用いた
超高速カメラぶれ補正
ODEを用いた
リアルなロボットアームの
実現とシミュレーション
高速テンプレートマッチング
(CPTM)を用いた動画像のぶれ補正を実現しました.
ODE(Open Dynamic Engine)を用いたロボットアームMELFAの動作シミュレータを作成しました.

2010年度

外部監視カメラを用いた
ラジコン制御
Kinectを用いたZ-Keyによる事前撮影映像とのリアルタイムスーパーインポーズ Kinectを用いた
Foot Piano
Kinectを用いた
未来の楽器
障害物に囲まれたラジコンカーを上空から撮影して位置と姿勢を認識し,自動制御で目的地に走行します. Kinectで撮影して人体領域を抽出し,リアルタイムでカメラ映像と合成します. Kinectを用いて足先の位置を検出し,踏んだ鍵盤の音を鳴らす Foot Piano です. Kinectで手のジェスチャーを認識し,ビープ音源の周波数やビブラートを変化させる.

Kinectを用いた
ロボットアームMELFAの
ジェスチャー操作
BoFを用いた
自動カロリー計算
缶飲料図柄の識別 BoFを用いた
スイーツの自動分類
Kinectで認識した手のジェスチャーをもとに,ロボットアームMELFAを制御するテレオペレーションを試作しました. ラーメン・カレー・カツ丼の3種の学食メニューを認識し,カロリーを表示する. Webカメラの映像から手に持った缶を自動検出し,缶ビールの銘柄を識別します. BoF(Bug of Feature)を使って5種類のスイーツを識別するプログラムを制作した.

2009年度

小型ロボットiSOBOTに
よるボール発見と追跡
4ビットマイコンを用いた
外部接続LED表示制御
ロボットアームとLED制御による画像データベース
自動構築システム
エンコーダレスロボット
アームのビジュアル
フィードバック制御
iSOBOTに搭載したカメラでボールを探索し,追跡するビジュアルフィードバックを実現しました. 4ビットマイコン(「大人の科学」付録)を改造して,外部接続LEDを表示させた. ロボットアームにLEDライトを装着し,約1000パターンの照明条件の画像を自動取得します. アーム型の玩具ロボットMR-999を改造して,PCから制御できるようにしてみた.

SIFTアルゴリズムの
Cygwinでの動画処理
TOFセンサによる
ジャンケン認識システム
2カメラによる視差動画像の
自動生成と簡易立体表示
倒立振子に関する
理論と実装
キーポイント型物体検出の代表的手法であるSIFTアルゴリズムを動画像に適用してみました. TOFセンサを用いて,人間のじゃんけんの手を認識するシステムを開発しました. 2台のWEBカメラを使用してアナグリフ式の視差動画像を作成しました. ビュートバランサーのモータ出力値を調整して,倒立振子を安定に動かしています.

▲Topへ


Copyright(C)2010 – Hashimoto Lab., All rights reserved