Augmented Human 2015 参加報告
+———————————————————————-+
|◆ Augmented Human 2015 参加報告
+———————————————————————-+
花光 宣尚(慶應義塾大学)
3月9日から3月11日にかけて,シンガポールのMarina Bay SandsにてAugmented Human (AH) 2015が開催された.AHでは,ウェアラブル/ユビキタスコンピューティング・BCI(Brain-Computer Interfaces)・AR・VRなど,私たち自身を巧みに理解し,拡張する技術を利用した多種多様な分野について研究発表がなされている.
開催6回目を迎える今回の国際会議は,12件のフルペーパー(採択率28%)と15件のショートペーパー(採択率40%),24件のポスターと12件のデモ(64%)が採択された.今回の口頭発表では,「Session 1: Wearable Interfaces」「Session 2: Altered Experiences」「Session 3: Haptics and Exoskeletons」「Session 4: Augmenting Realities」「Session 5: Learning and Reading」「Session 6: Augmenting Sports… and Toilets!」の6つのセッションで構成された.またデモとポスターの発表,学生チームによるStudent Design Competitionが行われた.今回,その中から特に興味深かった研究を2件,紹介する.
尾形らの「SkinWatch: Skin Gesture Interaction for Smart Watch」では,スマートウォッチの背面にフォトリフレクタを並べ,スマートウォッチ本体の押下・回転,また本体周辺の皮膚のピンチ操作などを,本体と接触した皮膚変形から測定し操作する研究である.スマートウォッチに内蔵された小さな画面でのタップやスワイプは,十分な操作方法とはいえない.そこで時計本体と時計周辺の皮膚を入力としてしまう提案である.現在では,まだ一般的とはいえないスマートウォッチだが,日常でスマートウォッチを利用する上では,操作性を向上させる手法のひとつといえる.スマートウォッチを使った事がない方は,一度スマートウォッチを使ってみてほしい.
またAmir AmediのKeynote講演「New frontiers in sensory substitution and sensory augmentation: technology and brain mechanisms」では盲目の方に映像を”聴かせる”研究 The EyeMusicを中心に紹介された.2次元画像の横軸を時間スケールに,縦軸を音程に割り当て,映像を楽譜のように音に変換する手法で画像を聴かせる研究である.またこの研究ではMRI画像を用いて聴いた時に視覚野が活発になっていることを明らかにしており共感覚として見えていることも評価されている.講演中,実際に変換された文字を聴き取り,その文字を想像する時間が設けられたが,確かに文字を”聴き”取ることができた.
今回AHに参加し,LifeとBrainのHackについて紹介してきた.それだけでなく,最先端技術のロボット技術やバイオ技術によって能力拡張されたパラリンピック選手のための競技大会であるCybathlonをまとめるRobert RienerがKeynote講演を行ったことやPanel Discussionで超人スポーツの話題が上がったように,これまでに培われてきた技術拡張やBCIを用いた研究技術が研究領域を飛び越え,本格的にスポーツに照準を合わせてきたように感じられた.今後のSports Hackの動向に目が離せなさそうである.さて次回のAugmented Human 2016は,Cybathlonの開催地でもあるスイスにて国際会議が開かれる予定である.
http://asg.sutd.edu.sg/ah2015/home
この記事へコメントすることはできません