易鑫副教授
个人介绍

姓名:易鑫

职称:副教授

邮箱:yixin@tsinghua.edu.cn

教育背景

工学博士 (计算机科学与技术),清华大学,中国, 2018

工学学士 (计算机科学与技术),清华大学,中国, 2013

工作履历

副教授、博士生导师,清华大学,2024-至今

助理教授、博士生导师,清华大学,2021-2024

博士后,清华大学,2018-2021

社会兼职

中国计算机学会(CCF)人机交互专业委员会委员

担任ACM SIGCHI、UIST、ACM UbiComp等多个国际学术会议与期刊评委

研究领域

网络应用安全

可用隐私与可用安全

人工智能安全

研究概况

       长期从事应用安全与人机交互方向的研究,包括智能终端设备、物联网、社交网络、人工智能服务、混合现实等场景中的身份验证、个人隐私保护、以及内容和认知安全等。在人机交互、普适计算、人工智能等领域顶级国际会议和期刊CHI、UIST、Ubicomp、CVPR等上发表论文40余篇,申请获得专利20余项。曾获得ACM SIGCHI China新星奖、CHI 2017和CHI 2019最佳论文提名奖(Honorable Mention Award)、Ubicomp研讨论文奖(Discussion Paper)等荣誉。主持国家自然科学基金面上项目,入选某领域青年人才托举计划等支持。指导学生团队多次获得清华大学挑战杯、学推计划、全国科创竞赛等荣誉。研究成果广泛应用于华为智能手机、搜狗输入法、蚂蚁智能眼镜等拥有广泛用户的商业产品和首都机场、载人航天等国家重点领域中。
近年来的主要研究成果包括:
1、泛在接入终端上的自然身份验证方法:基于多因素身份验证范式,提出了手机、智能眼镜、手表等泛在接入终端设备上基于眼动、手势、捏握等多模态行为的高效、安全身份验证技术,突破了传统生理特征验证和密码输入的安全性、可用性局限性,实现了安全性与易用性的兼容,显著提升了自然交互终端上设备上的登录解锁、身份验证便利性和效率。
2、深度推理挑战下的隐私风险识别与保护:针对物联网的泛在传感能力和人工智能的强大推理能力对个人数据隐私带来的新风险,面向智能终端设备、物联网、社交网络、人工智能服务、混合现实等场景,提出了场景自适应的个人数据隐私保护计算框架,发现并建模了多通道传感和大模型应用带来的隐私风险,并提出了系列交互技术,使得用户能够及时发现并阻止隐私泄露问题,同时兼顾交互任务的完成效能。
3、交互式可解释的可信AI服务:针对高智能性和真实感的AI服务导致用户盲目信任,以及缺少可解释性导致人和AI难以有效协作的难题,提出了人机协作的AIGC判别方法和人类认知规律驱动的AI信息检索方法,并提出了人机信任的计算和建模方法,有效提升了AI系统对于用户的可解释性,有效促进了社交网络、智能驾驶等场景中的内容治理和人机高效可信协作。
4、面向多模态信息的人类内生认知脆弱性,针对高沉浸感、高真实度的混合现实未来应用,建模了人在混合现实环境中因感知、认知内生脆弱性导致的偏差、错觉、误解等现象,发现了基于混合现实的认知脆弱性和对应的攻击方法,并提出面向远程协作、具身智能、社交VR等典型网络应用的认知安全增强技术。

奖励与荣誉

2024年度ACM SIGCHI China新星奖

2021年度中国人工智能学会优秀科技成果奖

2021年度 “清华大学第三十九届挑战杯二等奖” 金手指:实现任意表面触摸交互的穿戴式指套设备

2020年度 “长安汽车杯”首届中国人因工程设计大赛一等奖” 基于头眼运动的受限环境无手参与交互方法”

2020年度 “长安汽车杯”首届中国人因工程设计大赛一等奖” 面向受限触摸界面的自然文本输入技术”

2020年度 清华大学优秀博士后

2019年度 “中国电子学会科技进步一等奖” 支持用户自然意图表达的人机交互关键技术与应用” (第四完成人)

2019年度 “清华大学第三十七届挑战杯三等奖&优秀指导教师” 自然高效的便携式文本输入设备

2019 年度 ACM SIGCHI CHINA优博奖

2018年度 CCF优秀博士学位论文奖

2018年度 北京市优秀毕业生

2016年度 GIX全球创新大赛三等奖

学术成果

[1] Sheng Zhao, Junrui Zhu, Shuning Zhang, Xueyang Wang, Hongyi Li, Fang Yi, Xin Yi andHewu Li. “CoordAuth: Hands-Free Two-Factor Authentication in Virtual Reality Leveraging Head-Eye Coordination”. In 2025 IEEE Conference Virtual Reality and 3D User Interfaces (VR), 2025.

[2] Shuning Zhang, Yongquan ‘Owen’ Hu, Xin Yi, Suranga Nanayakkara and Xiaoming Chen. “IntervEEG-LLM: Exploring EEG-Based Multimodal Data for Customized Mental Health Interventions”. In WWW Companion ’25, Sydney, NSW, Australia, 2025.

[3] Shuning Zhang, Xin Yi, Shixuan Li, Chuye Hong, Gujun Chen, Jiarui Liu, Xueyang Wang, Yongquan Hu, Yuntao Wang and Hewu Li. “Actual Achieved Gain and Optimal Perceived Gain: Modeling Human Take-over Decisions Towards Automated Vehicles’ Suggestions”. In Proc. CHI’25, 2025.

[4] Shuning Zhang, Xin Yi, Shixuan Li, Haobin Xing and Hewu Li. “PrivCAPTCHA: Interactive CAPTCHA to Facilitate Effective Comprehension of APP Privacy Policy”. In Proc. CHI’25, 2025.

[5] Xueyang Wang, Sheng Zhao, Yihe Wang, Howard Ziyu Han, Xinge Liu, Xin Yi, Xin Tong and Hewu Li. “Raise Your Eyebrows Higher: Facilitating Emotional Communication in Social Virtual Reality Through Region-Specific Facial Expression Exaggeration”. In Proc. CHI’ 25, 2025.

[6] Xueyang Wang, Kewen Peng, Chonghao Hao, Wendi Yu, Xin Yi and Hewu Li. “VR Whispering: A Multisensory Approach for Private Conversations in Social Virtual Reality”. In IEEE Transactions on Visualization and Computer Graphics, 2025.

[7] Xueyang Wang, Runyan Tian, Qiuyi Zeng, Chenye Tu, Shuning Zhang, Xin Yi, Hewu Li, and Pei-Luen Patrick Rau. “The Synergy of Dialogue and Art: Exploring the Potential of Multimodal AI Chatbots in Emotional Support”. In Companion Publication of the 2024 Conference on Computer-Supported Cooperative Work and Social Computing, pp. 147-153. 2024..

[8] Xiyuxing Zhang, Yuntao Wang, Yuxuan Han, Chen Liang, Ishan Chatterjee, Jiankai Tang, Xin Yi, Shwetak Patel and Yuanchun Shi. “The EarSAVAS Dataset: Enabling Subject-Aware Vocal Activity Sensing on Earables”. In Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, 8(2), 1-26, 2024.

[9] Lihua Fan; Shuning Zhang, Yan Kong, Xin Yi, Yang Wang, Xuhai Xu, Chun Yu, Hewu Li and Yuanchun Shi. “Evaluating the Privacy Valuation of Personal Data on Smartphones”. In Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, 8(3), 1-33, 2024.