Beyond Symbols
視覚的ガイダンスの新たな方向性
2025年11月15日(土)・16日(日)/東京大学本郷キャンパス
Human Augmentation と Internet of Abilities (IoA) 、自律移動体技術に基づく
最新の研究デモを公開します。
暦本研究室・石黒研究室(東京大学大学院情報学環)合同のオープンハウスを開催いたします。
暦本研究室・石黒研究室(東京大学大学院情報学環)合同のオープンハウスを開催いたします。
暦本研究室では、人間や人工物がそれぞれの能力を時間・空間の制約を超えて活用する、Human AugmentationやInternet of Abilities(IoA)という概念を提唱し、様々な研究を展開しています。
石黒研究室では、上記コンセプトに加え、自動運転技術と人との関係、自律移動体技術を活用したさまざまなアプリケーションの可能性も探索し、具現化する研究を行っています。
オープンハウスでは、これらの考えに基づいた研究成果を中心に、各種研究を展示いたします。
なお、暦本研究室は、暦本純一教授の退官に伴い、本年度をもって散会いたします。暦本研究室のオープンハウスは今年が最後となりますので、ぜひお立ち寄りいただけますと幸いです。
We are pleased to announce that the Rekimoto Laboratory and the Ishiguro Laboratory of the Interfaculty Initiative in Information Studies, The University of Tokyo, will jointly host an Open House.
The Rekimoto Laboratory has advanced research under the concepts of Human Augmentation and the Internet of Abilities (IoA), which seek to enable both humans and artifacts to transcend the limitations of time and space in order to fully realize their potential.
The Ishiguro Laboratory, in addition to engaging with these concepts, conducts research that explores and materializes the possibilities of autonomous driving technologies, human–technology interaction, and applications utilizing autonomous mobile systems.
At the Open House, a wide range of research achievements will be presented, with particular emphasis on projects grounded in these approaches.
Please be advised that the Rekimoto Laboratory will be dissolved at the end of this academic year following the retirement of Professor Jun Rekimoto. Accordingly, this year’s event will mark the final Open House of the Rekimoto Laboratory. We would be most honored by your attendance.
暦本研究室・石黒研究室(東京大学大学院情報学環)合同のオープンハウスを開催いたします。
暦本研究室では、人間や人工物がそれぞれの能力を時間・空間の制約を超えて活用する、Human AugmentationやInternet of Abilities(IoA)という概念を提唱し、様々な研究を展開しています。
石黒研究室では、上記コンセプトに加え、自動運転技術と人との関係、自律移動体技術を活用したさまざまなアプリケーションの可能性も探索し、具現化する研究を行っています。
オープンハウスでは、これらの考えに基づいた研究成果を中心に、各種研究を展示いたします。
なお、暦本研究室は、暦本純一教授の退官に伴い、本年度をもって散会いたします。暦本研究室のオープンハウスは今年が最後となりますので、ぜひお立ち寄りいただけますと幸いです。
We are pleased to announce that the Rekimoto Laboratory and the Ishiguro Laboratory of the Interfaculty Initiative in Information Studies, The University of Tokyo, will jointly host an Open House.
The Rekimoto Laboratory has advanced research under the concepts of Human Augmentation and the Internet of Abilities (IoA), which seek to enable both humans and artifacts to transcend the limitations of time and space in order to fully realize their potential.
The Ishiguro Laboratory, in addition to engaging with these concepts, conducts research that explores and materializes the possibilities of autonomous driving technologies, human–technology interaction, and applications utilizing autonomous mobile systems.
At the Open House, a wide range of research achievements will be presented, with particular emphasis on projects grounded in these approaches.
Please be advised that the Rekimoto Laboratory will be dissolved at the end of this academic year following the retirement of Professor Jun Rekimoto. Accordingly, this year’s event will mark the final Open House of the Rekimoto Laboratory. We would be most honored by your attendance.
11月16日(日)は、両研究室が所属する東京大学大学院学際情報学府総合分析情報学コースの入試説明会が開催されています。受験を検討されている方は、そちらもご参加ください。
(詳細 : https://www.iii.u-tokyo.ac.jp/event/20250910event)
東京大学情報学環 福武ホール 福武ラーニングスタジオ/福武ラーニングシアター
Capo PELLICANO 〈カポ・ペリカーノ〉本郷店
視覚的ガイダンスの新たな方向性
小型な「光減衰型」光学シースルーHMD
軽量・無電源ARディスプレイ
議論支援システム
柔術教則動画の技能構造に基づくブラウジング
顔追従型裸眼立体視ディスプレイ
動画からキーポーズを抽出し、音楽のリズムに合わせてコマ送りで提示するダンス学習手法
身体活動を取り入れた小学校教育を支援するデジタル教材
目と耳に頼らずに、鼻を振動させて方向を伝えるメガネ型デバイス
非言語音声によるリアルタイム対話システム
うるさい環境でも自分の声だけを入力できるフレキシブルなマイク
音声を聞きながら相槌を打つことが可能なボイスメッセージアプリ
当サイトに掲載していない、未発表の研究も多数ございます。
会場では全ての研究・展示をご覧いただけますので、ぜひお越しください。
名古屋大学大学院工学研究科准教授
東京大学大学院情報学環助教
東京大学大学院情報学環准教授
石黒研究室で取り組んでいるHCIや自律移動体を活用したアプリケーション研究のご紹介と、HCI分野ユビキタス分野でご活躍の若手研究者の皆様と、これからの移動体活用に関するディスカッションを行います。
作家・東京大学大学院情報学環客員准教授
SB Intuitions, HCIチーム リーダー・醸燻酒類研究所 創業者
東京大学大学院情報学環教授・ソニーCSL フェロー/CSO
AIの発展、人間とAIの融合, その未来社会への影響..これらのテーマはSF的思考なくしては語れません。AIにSFを執筆させる試みなども交え、研究を発展させるための「思考のストッパーはずし」としてのSFについて議論します。
矢印や音声コマンドといった従来の方向指示は、意識的な解釈が必要なため、特にマルチタスク(ながら作業)中は注意が散漫になりがちである。スマートグラスの表示でさえ、私たちの精神的負荷を高める記号に頼ることが少なくない。私たちの研究では、片方の目に微細な動きの感覚を生み出すことで案内を行う、新しい手法を提案する。これは「見る」よりも「感じる」直感的な方向指示であり、記号を理解する必要がない。もう片方の目の視界を遮ることなく、より直接的でスムーズに、そして注意をそらされずに移動できる、新しい案内方法を目指している。
Traditional directional cues, like arrows and voice commands, require conscious interpretation, which can be distracting, especially when multitasking. Even cues on smart glasses often rely on symbols that add to our mental load. Our research introduces a new method: providing guidance by creating a subtle sensation of motion in a single eye. This delivers an instinctive directional cue that is felt more than seen, bypassing the need for symbolic understanding. By keeping the other eye's view completely unobstructed, this approach aims to offer a more direct, seamless, and less distracting way to navigate the world.
ステンドグラスのように入射光をフィルタリングし、実背景より暗い色を表示する光減衰型ディスプレイです。単一デバイスで色と輝度を同時制御することで大幅に小型化し、ウェアラブル化に適した構成を実現しました。
StainedSweeper is an optical see-through display that filters incoming light pixel by pixel to present images. Simultaneous control of color and intensity enables compact configurations suitable for wearable use.
Beaming ARは、環境側に配置したプロジェクターからユーザーが身に着けるアイウェアに向かって映像を投影することで、アイウェアを軽量でバッテリー不要とすることを実現する新しいAR映像提示方式です。
Beaming AR is a novel AR display approach that projects images from environment-mounted projectors onto user-worn eyewear, enabling lightweight, battery-free glasses.
研究のディスカッションをしている最中に、会話の内容から関連研究を探索し、内容を要約してティザー画像等と合わせて整理して表示します。会話の最中に新しい知見をお届けすることで、新しい発見に繋げたり、議論を深める支援を行います。
During research discussions, the system analyzes the conversation in real time to discover related studies, summarizes their contents, and presents them together with teaser images and other visuals. By introducing new insights during the discussion, it supports deeper exploration and helps spark new discoveries.
柔術のような対人格闘技では状況変化に応じた判断が求められます。SkillsInterpreterは、教則動画から大規模言語モデルによって状況判断の分岐構造を抽出し、技能の構造ベースでのビデオブラウジングを実現します。 In martial arts such as Jiu-Jitsu, practitioners should make context-dependent decisions. SkillsInterpreter extracts branching structures of situational judgment from instructional videos using large language models, enabling structure-based video browsing of skills.
裸眼立体視ディスプレイは、裸眼で3D映像を見られるディスプレイですが、視野角の狭さが課題でした。本研究では、ディスプレイをロボットアームに搭載し、ユーザの頭部に追従させることで広い視野角を実現しています。 Autostereoscopic displays enable viewing 3D images without additional equipment, but narrow viewing angle has been a challenge. This research achieves a wide viewing angle by mounting the display on a robotic arm that tracks the user's head.
動画からキーポーズを抽出し、音楽のリズムに合わせてコマ送りで提示するダンス学習手法を提案します。2Dと3Dの比較実験を通して、初心者でもリズム感と動作の正確さが向上することを示しました。 We propose DRF: Dance with Rhythmic Frames, a virtual reality application for dance learning by replaying key pose avatars in sync with rhythm with 3D motion trajectories extracted from dance videos.
MotionTalesは、物語の音読と身体表現運動を融合した小学校用MR教材です。児童の動きをリアルタイムで可視化し、創造性と表現力、学習意欲を高めることを目的としています。 A mixed-reality education tool that links storytelling with full-body movement. A camera and particle effects mirror gestures on screen, boosting engagement and creative expression in class.
道案内では、歩行中に画面を見ることの危険性や、うるさい環境では音声案内が聞き取りにくいという課題があります。本研究では、メガネの鼻パッドを振動させることで、視覚や聴覚を補完する方向提示を実現します。 For navigation, looking at a screen while walking is risky, and audio guidance is masked by noise. We propose vibrotactile directional cueing via eyeglass nose pads to complement vision and hearing.
ParaTalk は、人の言語音声による発話に対して非言語音声でリアルタイムに応答する対話システムです。文脈に適した感情と意図を表す非言語音声をLLM を用いて選択し、応答することで実現しています。 ParaTalk is a real-time dialogue system that responds with nonverbal sounds to human speech. An LLM selects nonverbal audio conveying context-aware intent and triggers the appropriate response on cue.
リモート会議などは周囲がうるさい場所では利用しづらいという課題があります。本研究では、フレキシブルなマイク構造によって得られる指向性を用いて話者の声のみをリアルタイムに取得する手法を提案します。 Remote meetings are often difficult to use in noisy environments. We propose a flexible curved microphone that use its inherent directivity to capture only the speaker’s voice in real time.
ボイスメッセージアプリ「SynVoice」は、メッセージ再生中に聞き手の相槌を即時録音し、元の音声に重ねて届けます。非同期会話にリアルタイムの反応を取り入れることで、話者間の共創性や共感性を高めます。 SynVoice is a voice messaging app that records the listener’s verbal backchannels during playback and layers them onto the original message. It enhances co-creation and empathy between speakers.