動画データセット+動作認識、説明生成(情報抽出)

認識・モデル化・予測モジュール

研究のポイント

人工知能が我々の生活の中に入って育児や介護などを支援できるようになるためには、日常生活の様々な出来事を深く理解している必要がある。本研究ではカメラなどで視覚的に観測された日常シーンにおける人の行動を認識し言語へと変換する技術を開発する。「誰が(誰と)何をしている」など動作主、動作内容、動作対象などをきめ細かく認識する技術を開発する。さらに、映像と言語を統合した長期記憶機構を開発し、過去の出来事について数日まで遡って質問に答えることができるような質問応答機構を実現することを目指す。

キーワード:
  • 動作認識
  • 深層学習
  • 動画のキャプション生成
  • 質問応答

モジュール・データの概要

研究の概要

ハイライト

  • STAIR Actions: 世界最大級の人の動作動画データセットの構築と公開
  • STAIR Actions Captions: 世界最大の動作動画キャプションデータセットの構築
  • 3DCNN 等の深層ニューラルネットに基づく動作認識モデルとキャプション生成モデルの構築

100種類の日常動作の認識

STAIR Actions データセットの構築

  • 100種類の日常動作 x 1000本(合計10万本)の動画データセット
  • 世界最大級
    参考 Kinetics 400種 x 750本
    ActivityNet 203種 x 137本
  • 認識された機能情報を利用すれば、ロボットが道具の使い方を把握することができ、動作パラメータの算出に利用可能
  • 公開中 http://actions.stair.center launch

データを用いて認識モデルを構築


動画の内容を説明する文章の生成

STAIR Video Captionsデータセットの構築

  • 8万本の動画それぞれに5文の日本語説明文(キャプション)がつけられた40万の動画-説明文ペアのデータセット
  • キャプションは「誰が」「どこで」「なにをしている」に分割されている
  • 世界最大、日本語では初
    参考:MSR-VTT 23万動画-説明文ペア(英語では世界最大)
  • 公開中 https://actions.stair.center/

Sデータを用いて説明文生成モデルを構築

  • 説明文生成に適する深層 Encoder-decoderモデルを用いて世界トップレベルの説明文生成性能(Bleu4=0.69, CIDEr=1.78)を達成

生成例

想定されるアプリケーション

生活を支援する人工知能

  • 人の日常動作を認識・理解して支援する人工知能
  • 介護・看護・育児などへの応用
研究開発プロジェクト NEDO 次世代人工知能・ロボット中核技術開発の成果
研究機関 学校法人 千葉工業大学(千葉県習志野市)[ 産総研からの再委託 ]
主要研究者 竹内 彰一(千葉工業大学)