お知らせ 2023年度・2024年度 学生員 会費割引キャンペーン実施中です
お知らせ 技術研究報告と和文論文誌Cの同時投稿施策(掲載料1割引き)について
お知らせ 電子情報通信学会における研究会開催について
お知らせ NEW 参加費の返金について
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 0000-00-00 00:00
画像と動作ラベルからの動画生成
会沢拓哉全 へい東千葉大
抄録 (和) 近年,機械学習の関連研究はその成果から関心を集めており,日々発展を続けている.そんな機械学習モデルの一つであるGAN(Generative Adversarial Networks)という学習モデルは,膨大な訓練データを必要とするものの,本当に写真で撮ったかのような画像や,人間が実際に描いたように見える絵を生成できるとして注目されている.
画像に限らず,GANを用いた研究の中には動画の生成を試みるものもある.代表的なものに,Carl Vondrickらによって発表されたVideoGANがある.しかし,このVideoGANで生成された動画に映る人間はひどく歪曲しており,かろうじて人間とわかる程度の精度であった.
そこで本研究では,GANによる動画生成の中でも特に人間が自然なモーションを生成できる手法を提案する.方法としては,人間のポーズを簡易的に表現した関節位置データに時系列的な意味合いを持たせたデータを生成し,それをもとに実際の人間が動く動画を生成するというものである. 
(英) In recent years, related research on machine learning has attracted interest from its results and continues to develop day by day. A learning model called GAN (Generative Adversarial Networks) which is one such machine learning model requires huge amount of training data ,however it is drawing attention as being able to generate images as if they were actually photographed, or pictures that people actually drew.
Not limited to images, some studies using GAN attempt to generate animation, representative of which is VideoGAN which was announced by Carl Vondrick et al. However, the human being reflected in the video generated by this VideoGAN was distorted severely, and it was barely accurate enough to be understood as humans.
Therefore, in this research, I propose a method that can generate movies that make human motion in a natural way, especially in the generation of movies by GAN. As a method, it is proposed that I give joint position data, which simplifies the representation of human pose, time series meaning, and to generate animation in which the actual human moves with that.
キーワード (和) 機械学習 / 動画生成 / GANs / / / / /  
(英) machine learning / movie generation / GANs / / / / /  
文献情報 信学技報
資料番号  
発行日  
ISSN  
PDFダウンロード

研究会情報
研究会 HCGSYMPO  
開催期間 2020-12-15 - 2020-12-17 
開催地(和) オンライン開催 
開催地(英) Online 
テーマ(和) 共生社会をささえるヒューマンコミュニケーション 
テーマ(英)  
講演論文情報の詳細
申込み研究会 HCGSYMPO 
会議コード 2020-12-HCGSYMPO 
本文の言語 日本語 
タイトル(和) 画像と動作ラベルからの動画生成 
サブタイトル(和)  
タイトル(英) Video generation from images and motion labels 
サブタイトル(英)  
キーワード(1)(和/英) 機械学習 / machine learning  
キーワード(2)(和/英) 動画生成 / movie generation  
キーワード(3)(和/英) GANs / GANs  
キーワード(4)(和/英) /  
キーワード(5)(和/英) /  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 会沢 拓哉 / Takuya Aizawa / アイザワ タクヤ
第1著者 所属(和/英) 千葉大学大学院融合理工学府数学情報科学専攻 (略称: 千葉大)
Chiba Univ. Graduate School of Sci. and Eng., Div. of Math. and Infomatics (略称: Chiba Univ.)
第2著者 氏名(和/英/ヨミ) 全 へい東 / Heitou Zen / ゼン ヘイトウ
第2著者 所属(和/英) 千葉大学統合情報センター (略称: 千葉大)
Chiba Univ., Inst. of Management and Info. Tech. (略称: Chiba Univ.)
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 0000-00-00 00:00:00 
発表時間 分 
申込先研究会 HCGSYMPO 
資料番号  
巻番号(vol) vol. 
号番号(no)  
ページ範囲  
ページ数  
発行日  


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会