研究会 |
発表日時 |
開催地 |
タイトル・著者 |
抄録 |
資料番号 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-17 09:30 |
京都 |
京都テルサ |
類似画像検索とSLAMの同時利用による歩行者位置推定の頑健性向上 ○山﨑康平・宍戸英彦・北原 格・亀田能成(筑波大) PRMU2018-96 MVE2018-38 |
歩行者へのナビゲーションには頑健な位置推定手法が必須である.特に視覚障がい者向けのナビゲーションにおいては,歩行したいと... [more] |
PRMU2018-96 MVE2018-38 pp.1-4 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-17 09:45 |
京都 |
京都テルサ |
類似画像検索による歩行位置精度向上のための凸包の利用 ○小河原洸貴・宍戸英彦・北原 格・亀田能成(筑波大) PRMU2018-97 MVE2018-39 |
事前に撮影された映像に基づく歩行者ナビゲーションシステムについての我々の先行研究では, 事前撮影映像から抽出された参照画... [more] |
PRMU2018-97 MVE2018-39 pp.5-10 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-17 13:55 |
京都 |
京都テルサ |
[フェロー記念講演]柔軟物の視触覚メディア情報処理と五感通信への応用 ○田中弘美(立命館大) PRMU2018-98 MVE2018-40 |
[more] |
PRMU2018-98 MVE2018-40 pp.27-30 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-17 15:00 |
京都 |
京都テルサ |
[招待講演]Augmenting Your Vision ~ 近年の光学透過型near-eyeディスプレイ研究の進捗について ~ ○伊藤勇太(東工大) PRMU2018-99 MVE2018-41 |
拡張現実感(AR)における映像提示とは、いわば視界に入る現実の情報(=光)を加筆・編集・選別することと言える。仮にnea... [more] |
PRMU2018-99 MVE2018-41 p.31 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-17 16:15 |
京都 |
京都テルサ |
Nelder-Mead法の並列化による識別器のハイパパラメータチューニングの高速化 ○渡邊修平・尾崎嘉彦・大西正輝(産総研) PRMU2018-100 MVE2018-42 |
機械学習による学習モデルの識別精度はハイパパラメータに大きく依存し,高精度な識別率を達成するためには,ハイパパラメータの... [more] |
PRMU2018-100 MVE2018-42 pp.33-38 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-17 16:30 |
京都 |
京都テルサ |
文字を含む情景画像の異種CNN融合による超解像 ○中尾 亮・内田誠一(九大) PRMU2018-101 MVE2018-43 |
本稿では異なるターゲットを対象に超解像を行うよう学習したSRCNNの解析を目的とする.特に微細に異なる性質を持つ2対象の... [more] |
PRMU2018-101 MVE2018-43 pp.39-44 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-17 16:45 |
京都 |
京都テルサ |
共有潜在空間を用いた手書き文字のオンライン・オフライン変換 ○角 太智・早志英朗・内田誠一(九大) PRMU2018-102 MVE2018-44 |
本研究は,オンライン・オフライン手書き文字を相互に変換可能なネットワークの構築を試みる.提案するネットワークは2つのVa... [more] |
PRMU2018-102 MVE2018-44 pp.45-50 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-17 17:00 |
京都 |
京都テルサ |
ニューラルネットワークを用いた物体画像から把持方法候補の想起 ○眞田 慎・松尾直志・島田伸敬・白井良明(立命館大) PRMU2018-103 MVE2018-45 |
人間がロボットに物体に対する単純な動作指示を出すことで,ロボットが物体に対して想定される複数の動作から指示に沿った最適な... [more] |
PRMU2018-103 MVE2018-45 pp.51-55 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-18 09:30 |
京都 |
京都テルサ |
半透明パーティションを用いたデスク周辺AR環境切替による共食コミュニケーション支援 ○何 一澎・米澤朋子(関西大) PRMU2018-104 MVE2018-46 |
本稿では,我々がこれまでに提案した半透明パーティションによるデスク周辺の環境切替システムを用い,VR 会話環境や共食によ... [more] |
PRMU2018-104 MVE2018-46 pp.101-106 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-18 09:45 |
京都 |
京都テルサ |
多人数講義における講師分身エージェントを用いたコミュニケーションの促進 ○北岸佑樹・田中友樹・米澤朋子(関西大) PRMU2018-105 MVE2018-47 |
本稿では,一人対多人数コミュニケーションにおける講師--受講生間の個別コミュニケーションの支援,促進を目的として,影と移... [more] |
PRMU2018-105 MVE2018-47 pp.107-114 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-18 10:00 |
京都 |
京都テルサ |
頸コミュニケーションのための動作伝達様式の選択 ~ 複数様式の併用と腕時計型デバイスによる選択 ~ ○井藤隆秀・近藤一晃・中村裕一(京大)・ジョナサン ロシター(ブリストル大)・秋田純一(金沢大)・戸田真志(熊本大) PRMU2018-106 MVE2018-48 |
介護等を想定した動作の見守り・伝達システムとして,我々は頸コミュニケーションを提案している.被観測者の動作状態に伝えるた... [more] |
PRMU2018-106 MVE2018-48 pp.115-120 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-18 13:55 |
京都 |
京都テルサ |
[招待講演]圧縮表現に基づく光線空間の撮影と表示 ○高橋桂太・藤井俊彰(名大) PRMU2018-107 MVE2018-49 |
光線空間とは,視覚情報の表現のために3次元空間を飛び交うあらゆる光線を記述する枠組みであり,3次元計測,物体認識,映像生... [more] |
PRMU2018-107 MVE2018-49 p.129 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-18 15:10 |
京都 |
京都テルサ |
深層学習におけるバッチサイズスケジューリングと識別精度の検討 ○大友一馬(長岡技科大)・大西正輝(産総研) PRMU2018-108 MVE2018-50 |
深層学習モデルの学習は確率的勾配効果法 (SGD) で行われ,識別精度を向上させるためには学習率を徐々に下げていくのが一... [more] |
PRMU2018-108 MVE2018-50 pp.131-136 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-18 15:25 |
京都 |
京都テルサ |
CNNによるテクスチャ認識における周波数特徴の有効性の検証 ○川路啓太・早志英朗・内田誠一(九大) PRMU2018-109 MVE2018-51 |
本研究では,畳み込みニューラルネットワーク(CNN)を用いたテクスチャ認識において,周波数特徴の有用性を検証する.具体的... [more] |
PRMU2018-109 MVE2018-51 pp.137-142 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-18 15:40 |
京都 |
京都テルサ |
高性能顔認識系の射影係数による構成 池田侑平・○尺長 健(岡山大) PRMU2018-110 MVE2018-52 |
本稿では,照明変動に対応できる高速大規模顔認識系を各人物につき登録画像1 枚を使用するだけで構成する方法を検討する.前稿... [more] |
PRMU2018-110 MVE2018-52 pp.143-148 |
PRMU, MVE (共催) IPSJ-CVIM (連催) [詳細] |
2019-01-18 15:55 |
京都 |
京都テルサ |
360度画像の一領域から全体を生成するGANs ○秋本直郁・林 昌希・笠井誠斗・青木義満(慶大) PRMU2018-111 MVE2018-53 |
本稿では,360度画像のうち一方向分の領域から,Generative Adversarial Networksを用いて残... [more] |
PRMU2018-111 MVE2018-53 pp.149-153 |