« 【研究成果】グラフェンの100 倍以上のキャリア数を持つ導電性シート 世界初「ディラック線」を持つ単原子シートの発見 | トップページ | 災害救助犬の活性度(情動)を遠隔モニタリングする技術を開発 サイバースーツに搭載し、サイバー救助犬による被災者捜索活動を支援 »

2017年11月 5日 (日)

映像を見て感じた内容を脳から言葉で読み解く脳情報デコーディング技術を開発

2017年11月1日
国立研究開発法人情報通信研究機構
 
詳細は、リンクを参照して下さい。
 
---------------------------------------
・CMなどの映像を見て感じたことを、
 1万語の「名詞・動詞・形容詞」の形で
 脳活動から解読
 
・より多種の物体・動作内容を読み解く
 技術に加え、新たに“印象”を読み出す
 技術を確立
 
・テレビCMなどの映像コンテンツ評価や
 発話を介さないコミュニケーション技術
 への応用が可能
---------------------------------------
 
 BMI
(ブレーン・マシン・インターフェース)
進歩しています。
 
 2016年度から開始したCMなどの
映像コンテンツの評価サービス事業に
使われているようですが、
発話や筆談が困難な方々などの
コミュニケーションを行う手段として
発展すると良いですね。
 
 最終的には誰でも利用出来るように
なると素晴らしいのですが、
いつ頃実現出来るのだろうか?
 
 
 大いに期待している技術です。

|

« 【研究成果】グラフェンの100 倍以上のキャリア数を持つ導電性シート 世界初「ディラック線」を持つ単原子シートの発見 | トップページ | 災害救助犬の活性度(情動)を遠隔モニタリングする技術を開発 サイバースーツに搭載し、サイバー救助犬による被災者捜索活動を支援 »

科学関連ニュース」カテゴリの記事

コメント

この記事へのコメントは終了しました。

トラックバック


この記事へのトラックバック一覧です: 映像を見て感じた内容を脳から言葉で読み解く脳情報デコーディング技術を開発:

« 【研究成果】グラフェンの100 倍以上のキャリア数を持つ導電性シート 世界初「ディラック線」を持つ単原子シートの発見 | トップページ | 災害救助犬の活性度(情動)を遠隔モニタリングする技術を開発 サイバースーツに搭載し、サイバー救助犬による被災者捜索活動を支援 »