December 10, 2025
【東大・暦本研】「矢印」を見なくても「気配」で方向性がわかる?脱記号的方向性伝達メガネ型デバイスを開発、ウェアラブルのトップ会議UbiComp/ISWC 2025で発表 ~「記号」を読ませず、直感的な「動き」でナビゲートすることで、「ながら作業」のパフォーマンスを向上~[UTokyo Rekimoto Lab] Guiding Without Arrows: Wearable Device Uses Peripheral "Motion" for Intuitive Navigation, Presented at Ubicomp/ISWC 2025 ~ "Beyond Symbols": Boosting Dual-Task Performance by Triggering Motion Perception Instead of Semantic Interpretation ~

Video Teaser: https://www.youtube.com/watch?v=VW8qacZYNbU
要約
東京大学大学院情報学環・暦本純一研究室・特任助教・張清の研究チームは、ウェアラブルコンピュータ分野の最高峰国際会議「ISWC 2025」にて、新しい方向伝達手法に関する論文を発表します。本研究「Beyond Symbols」は、ARグラス等で一般的な「矢印(記号)」による指示の代わりに、視野の端(周辺視野)に「動く縞模様」を表示することで、ユーザーに直感的に方向を伝える技術です。実験の結果、この手法は矢印を読むよりも認知負荷が低く、別の作業をしながら指示を受ける「デュアルタスク」環境において、ナビゲーションの正解率を有意に向上させることが実証されました。
詳細な研究内容
背景と課題: 従来のスマートグラスによるナビゲーションは、「右折」を伝えるために矢印アイコンや文字を表示するのが一般的でした。しかし、これらはユーザーが一度作業の手を止め、視線を動かし、記号の意味を「解釈」する必要があるため、歩行中や作業中といった「ながら(デュアルタスク)」状況では両立が難しいという課題がありました。
提案手法: 本研究では、「中心視野は詳細な形を見るのが得意だが、周辺視野は『動き』に敏感である」という人間の視覚特性に着目しました。具体的には、脳内で動きの知覚を司る「MT/V5野」を周辺視野から直接刺激する視覚パターンを採用しています。 開発したメガネ型デバイス(プロトタイプ)は、片目のレンズの端に透明液晶を搭載し、そこにシンプルな「流れる縞模様」を表示します。
社会的意義・今後の展望
本技術は、Calm Technologyの概念に基づき、人間の注意資源を奪わずに情報を伝える新しいインタフェースのあり方を提示しています。今後は、工場や工事現場でのハンズフリー作業支援、聴覚障がい者のための危険検知、あるいは日常的な歩行ナビゲーションなど、安全かつ直感的な情報伝達が求められるあらゆるシーンでの応用が期待されます。
- 発表会議: The 2025 ACM International Symposium on Wearable Computers (ISWC ’25)
- 論文タイトル: Beyond Symbols: Motion Perception Cues Enhance Dual-Task Performance with Wearable Directional Guidance
- 著者: 張清(東京大学), 陳俊宇(東京大学), 黄逸飛 (東京大学), 黄璟 (東京藝術大学), Thad Starner (ジョージア工科大学), Kai Kunze (慶應義塾大学), 暦本純一(東京大学/Sony CSL)
Press Release (English Version)
Title
[UTokyo Rekimoto Lab] Guiding Without Arrows: Wearable Device Uses Peripheral “Motion” for Intuitive Navigation, Presented at Ubicomp/ISWC 2025 ~ “Beyond Symbols”: Boosting Dual-Task Performance by Triggering Motion Perception Instead of Semantic Interpretation ~
Video Teaser: https://www.youtube.com/watch?v=VW8qacZYNbU
Summary
A research team led by Project Assistant Professor Qing Zhang at the University of Tokyo (Rekimoto Lab) will present a new paper at ISWC 2025, the premier conference for wearable computing. The paper, titled “Beyond Symbols,” introduces a novel navigational cue for smart glasses that replaces traditional symbolic arrows with “moving patterns” presented in the peripheral vision. User studies demonstrate that this method significantly improves directional accuracy and reduces cognitive load compared to arrow-based cues, making it ideal for high-demand “dual-task” scenarios like navigating while walking or working.
Details
Background & Challenge: Current smart glasses often rely on visual symbols (e.g., arrows) or text for navigation. These require users to shift their gaze and semantically “interpret” the symbol, which consumes cognitive resources and distracts from the primary task at hand (e.g., watching traffic or operating machinery).
Proposed Method: The team leveraged the biological fact that while human foveal (central) vision excels at recognizing detailed shapes, peripheral vision is highly sensitive to “motion.” Specifically, the proposed method utilizes visual patterns designed to directly stimulate the brain’s “MT/V5 area”—the region responsible for motion perception—via the peripheral visual field. Based on this principle, the team developed a monocle-style prototype with a transparent LCD that displays simple moving bars at the edge of the user’s field of view. This allows users to intuitively sense direction through “motion flow” without blocking their central vision.
Social Impact & Future Outlook
Grounded in the principles of Calm Technology, this work proposes a new interface paradigm that respects human attention. It holds promise for safer and more intuitive navigation systems in industrial settings, sports, and daily life, where users need to receive information without breaking focus from the real world.
- Conference: The 2025 ACM International Symposium on Wearable Computers (ISWC ’25)
- Paper Title: Beyond Symbols: Motion Perception Cues Enhance Dual-Task Performance with Wearable Directional Guidance
- DOI: https://dl.acm.org/doi/10.1145/3715071.3750418
- Authors: Qing Zhang (UTokyo), Junyu Chen (UTokyo), Yifei Huang (UTokyo), Jing Huang (Tokyo University of the Arts), Thad Starner (Georgia Tech), Kai Kunze (Keio University), Jun Rekimoto (UTokyo/Sony CSL)
