网络科学与网络空间研究院

Institute for Network Sciences and Cyberspace

姓名:易鑫

职称:助理教授

电话:+86-15210588678

邮箱:yixin@tsinghua.edu.cn

教育背景

工学博士 (计算机科学与技术),清华大学,中国, 2018

工学学士 (计算机科学与技术),清华大学,中国, 2013

工作履历

助理教授、博士生导师,清华大学,2021-至今

博士后,清华大学,2018-2021

社会兼职

中国计算机学会(CCF)人机交互专业委员会委员

清华大学人工智能研究院智能人机交互中心“智能文本输入开放平台”负责人

担任ACM SIGCHI、UIST、ACM UbiComp、TOCHI等多个国际学术会议与期刊评委

研究领域

应用安全

智能物联网

人机交互

研究概况

长期从事应用安全、智能物联网与人机交互方向的研究,包括人机物泛在互联环境中的智能感知与互联技术、人机性能协同优化的交互应用、物联网和移动场景中的隐私和安全问题等。在人机交互、普适计算领域顶级国际会议和期刊CHI、UIST、Ubicomp、IJHCS等上发表论文十余篇,并获得CHI 2017和CHI 2019的最佳论文提名奖(Honorable Mention Award)、Ubicomp研讨论文奖(Discussion Paper)等荣誉。相关成果应用于华为智能手机、搜狗输入法、亮风台智能眼镜等拥有广泛用户的商业产品和国家重点领域中,推动了其产品应用性能的显著提升。

近年来的主要研究成果包括:

1、基于贝叶斯的智能文本输入技术:提出了文本输入意图推理的贝叶斯方法,有效解决了移动终端、可穿戴设备等设备上的“胖手指问题”和输入界面受限问题,数倍提升了文本输入的效率、准确率与输入自然性,突破了学界“空中打字”的公开难题,提出了智能手表全键盘输入、智能平板盲式文本输入等一系列智能文本输入技术,并实际应用于搜狗输入法、华为智能手机等商业产品中。相关成果获得CHI 2017和CHI 2019的最佳论文提名奖。

2、智能空间VR/AR自然人机交互技术:针对智能空间中VR/AR交互的高疲劳度、低效率与不准确问题,提出了空中虚拟目标的盲获取技术、基于头动的命令触发技术等相关技术,从而减少了交互过程对视线瞄准的依赖性,显著提升了目标选择、命令触发等基本交互任务的效率、准确率与自然性。相关成果应用于亮风台智能眼镜和智能控制空间中。

3、人机物泛在互联环境中的应用安全:面向人机物泛在互联的新型网络应用形态,提出了基于面部触摸的智能耳机交互方法,在显著扩展耳机交互能力的同时,可有效实现交互隐私和社交接受度的优化。面向多设备之间的互联和认证问题,提出了基于同步行为的“运行时”自动互联方法,有效减少了设备切换的成本。相关成果获得Ubicomp 2017研讨论文奖。

奖励与荣誉

2021年度 “清华大学第三十九届挑战杯二等奖” 金手指:实现任意表面触摸交互的穿戴式指套设备

2020年度 “长安汽车杯”首届中国人因工程设计大赛一等奖” 基于头眼运动的受限环境无手参与交互方法”

2020年度 “长安汽车杯”首届中国人因工程设计大赛一等奖” 面向受限触摸界面的自然文本输入技术”

2020年度 清华大学优秀博士后

2019年度 “中国电子学会科技进步一等奖” 支持用户自然意图表达的人机交互关键技术与应用” (第四完成人)

2019年度 “清华大学第三十七届挑战杯三等奖&优秀指导教师” 自然高效的便携式文本输入设备

2019 年度 ACM SIGCHI CHINA优博奖

2018年度 CCF优秀博士学位论文奖

2018年度 北京市优秀毕业生

2016年度 GIX全球创新大赛三等奖

学术成果

会议论文:

[1] Xin Yi, Chen Wang, Xiaojun Bi and Yuanchun Shi. “PalmBoard: Leveraging Implicit Touch Pressure in Statistical Decoding for Indirect Text Entry”, In Proc. CHI ’20. ACM, Honolulu,HI, USA, Paper 314.

[2] Xuhai Xu, Haitian Shi, Xin Yi*, Wenjia Liu, Yukang Yan, Yuanchun Shi, Alex Mariakakis, Jennifer Mankoff and Anind K. Dey. “EarBuddy: Enabling On-Face Interaction via Wireless Earbuds”, In Proc. CHI ’20. ACM, Honolulu, HI, USA, Paper 707.

[3] Weinan Shi, Chun Yu, Shuyi Fan, Feng Wang, Tong Wang, Xin Yi, Xiaojun Bi and YuanchunShi, “VIPBoard: Improving Screen-Reader Keyboard for Visually Impaired People with Character-Level Auto Correction”, In Proc. CHI ’19. ACM, Glasgow, Scotland UK, Paper517. Honorable Mention Award (Top 5%).

[4] Yukang Yan, Chun Yu, Xiaojuan Ma, Xin Yi, Sun Ke and Yuanchun Shi. “VirtualGrasp: Leveraging Experience of Interacting with Physical Objects to Facilitate Digital Object Retrieval”, In Proc. CHI ’18. ACM, Montreal QC, Canada, Paper 78.

[5] Xin Yi, Chun Yu, Weijie Xu, Xiaojun Bi and Yuanchun Shi. “COMPASS: Rotational Keyboard on Non-Touch Smartwatches”. In Proc. CHI ’17. ACM, Denver, Colorado, USA, 705-715.Honorable Mention Award (Top 5%)

[6] Xin Yi, Chun Yu, Weinan Shi, Xiaojun Bi and Yuanchun Shi. “Word Clarity as a Metric in Sampling Keyboard Test Sets”. In Proc. CHI ’17. ACM, Denver, Colorado, USA, 4216-4228.

[7] Chun Yu, Yizheng Gu, Zhican Yang, Xin Yi and Yuanchun Shi. “Tap, Dwell or Gesture?: Exploring Head-Based Text Entry Techniques for HMDs”. In Proc. CHI ’17. ACM, Denver, Colorado, USA, 4479-4488.

[8] Xin Yi, Chun Yu, Mingrui Zhang, Sida Gao, Ke Sun and Yuanchun Shi. “ATK: Enabling Ten-Finger Freehand Typing in Air Based on 3D Hand Tracking Data”. In Proc. UIST ’15. ACM, Charlotte, NC, USA, 539-548.

期刊论文:

[1] 易鑫,李思民,卢向南,刘冰川,史元春. “基于稳态视觉响应的脑电接口动态分组键盘技术”,中国计算机学会通讯, 2020, 3(16): 28-34.

[2] Tengxiang Zhang, Xin Yi*, Ruolin Wang, Jiayuan Gao, Yuntao Wang, Chun Yu, Simin Li and Yuanchun Shi, “Facilitating Temporal Synchronous Target Selection through User Behavior Modeling”, IMWUT ’19, 2019.

[3] Yukang Yan, Xin Yi*, Chun Yu and Yuanchun Shi. “Gesture-based target acquisition in virtual and augmented reality”. In Virtual Reality & Intelligent Hardware, 2019, 1(3): 276-289.

[4] Zhican Yang, Chun Yu, Xin Yi* and Yuanchun Shi, “Investigating Gesture Typing for Indirect Touch”, IMWUT ’19, 2019.

[5] Tengxiang Zhang, Xin Yi*, Ruolin Wang, Yuntao Wang, Chun Yu, Yiqin Lu and Yuanchun Shi, “Tap-to-Pair: Associating Wireless Devices with Synchronous Tapping”, IMWUT ’18, 2018.

[6] Yukang Yan, Chun Yu, Xin Yi and Yuanchun Shi, “HeadGesture: Hands-Free Input Approach Leveraging Head Movements for HMD Devices”, IMWUT ’18, 2018.

[7] 喻纯,易鑫,史元春. “自然文本输入中的动作建模”,中国计算机学会通讯, 2018, 5(14):11-15.

[8] 易鑫,喻纯,史元春, “普适计算环境中用户意图推理的Bayes方法”,中国科学:信息科学, 2018, 4(48): 419-432.

[9] Weinan Shi, Chun Yu, Xin Yi, Zhen Li and Yuanchun Shi. “TOAST: Ten-Finger Eyes-Free Typing on Touchable Surfaces”. IMWUT ’18, 2018.

[10] Tengxiang Zhang, Xin Yi, Chun Yu, Yuntao Wang, Nicholas Becker and Yuanchun Shi. “TouchPower: Interaction-based Power Transfer for Power-as-needed Devices”. IMWUT ’17, 2017. Discussion Paper Award.

[11] Yiqin Lu, Chun Yu, Xin Yi, Yuanchun Shi and Shendong Zhao. “BlindType: Eyes-Free Text Entry on Handheld Touchpad by Leveraging Thumbs’ Muscle Memory”. IMWUT ’17, 2017.

[12] Xin Yi, Chun Yu, Weinan Shi and Yuanchun Shi. “Is it too small?: Investigating the performances and preferences of users when typing on tiny QWERTY keyboards”. In International Journal of Human-Computer Studies, 106 (2017): 44-62.