首页 > 宏观 > 正文

终端智能体成为安全新战场 “可不可信”迫在眉睫

2025-07-28 18:25:43 21世纪经济报道 21财经APP 肖潇,王俊

21世纪经济报道记者肖潇 王俊 北京报道

作为科技圈的香饽饽产品,AI眼镜被各大科技巨头视为继手机之后的下一代智能终端。

TA如同一个探照灯,能随时捕捉人脸、行为轨迹、环境影像等信息,在提供便利的同时,安全质疑也随之而来。

“智能眼镜产品,隐私泄露的风险尤为突出。”7月28日,在世界人工智能大会发布的《终端智能体安全2025》(下称《白皮书》)指出,这类设备在数据采集、处理、传输等环节均存在被窃听、被篡改的风险,尤其是涉及图像、人脸、地理位置等个人敏感信息时。

白皮书进一步建议,应对智能眼镜类产品进行“能力安全管控”,包括限制其数据调用范围、操作权限,并对异常行为实现即时阻断。

这份白皮书由上海人工智能实验室、中国信通院、蚂蚁集团、IIFAA联盟四方联合发布。首次系统梳理了智能体风险分类、如何发现风险、如何防御风险,并覆盖了单智能体设备、多智能体协同,再到AI终端生态的全面挑战。在AI Agent成为“下一代操作系统”的当下,这场对安全设施的梳理,来得尤为及时。 

终端智能体为何成安全新战场?

AI智能体开始落地到终端,但它和我们熟悉的智能设备已经不是一回事了。

在AI大模型加速下沉的2025年,智能体正快速渗透进手机、眼镜、耳机、车机等各种终端设备,悄悄成为连接人、设备与环境的关键枢纽。生活、工业、医疗、教育等多个行业,正在被一批更“主动”、更“拟人化”的终端智能体重新定义交互方式。

它们不再是传统意义上的智能终端,也不是完全云端运行的AI Agent,而是一种运行在“端侧”的智能体。

技术上的变化正在改变产品体验的边界。例如,Meta Quest 4 Pro 实现了毫米级手势识别与3D语义理解,华为 Vision Glass 2025 能通过眼动触发导航与内容切换。智能手机上的AI助手也在“去唤醒词化”,荣耀 Magic6 Pro 的“灵动胶囊”已经能基于用户行为自动推送登机牌、健康码等实时服务。

垂直行业的人机交互逻辑也在被改变。现在的AI 座舱已经可以通过驾驶员微表情,分析疲劳程度,调节空调温度、发出警报,主动介入安全保障。

这种“无感交互、主动触发”的终端智能体新形态,确实让AI更贴近用户,但它带来的问题也更加复杂。

《白皮书》指出,随着模型越来越懂用户、操作越来越自动,终端智能体的风险边界也在拓展:不再只是“数据泄露”这么简单,而是向模型行为、身份伪造、环境感知误导,甚至算法伦理等深层问题蔓延。

在AI驱动下,智能化的深度和广度,也达到了一个新的水平。

在智能化深度上,智能化从移动APP时代的简单赋能,演进到现在的AI原生;

在交互上,从单模态交互到多模态交互,甚至带有空间智能的空间交互;

在场景复杂性上,从单场景服务,到全场景的任务编排与规划;

在服务模式上,从用户被动服务,到主动服务用户;

在连接宽度上,从单一APP完成任务,到跨应用、复杂协同完成目标。

这导致了设备与物理世界的融合,设备与设备的连接,智能体与设备的连接,以及智能体之间的连接等更为广泛的连接。

跨设备多智能体协同,会带来很多问题,比如信任问题、身份问题、安全问题等。

和APP时代的信任问题不同,智能化时代会出现链路不可信、授权不可信、服务不可信等多种信任问题;身份问题上,智能化时代各种泛终端设备的身份、智能体身份、用户身份,如何实现关联和身份流通是一大挑战;在安全问题上,从传统的设备孤岛,到全面连接后,导致的诸如数据传输不安全,风险敞口变大。

三大防护路径

安全问题是终端智能体发展旅程中,最复杂的地形图之一。

《白皮书》首次提出了覆盖六大层级的“终端智能体安全风险图谱”,将终端智能体风险分析分为设备层风险、数据层风险、模型层风险、端云协同层风险、接口层风险和业务层风险等风险层,将风险从硬件到底层算法、再到交互接口和业务逻辑层面,系统性拆解。

更进一步,《白皮书》将这些风险细化至“用户身份”“应用身份”“恶意prompt工程”“权限滥用”“行为诱导”“生成内容失控”等具体攻击路径。

以模型层为例,提示词诱导(Prompt Injection)攻击正在成为终端智能体的主要隐患之一:攻击者通过精心构造的输入,诱导模型暴露内部逻辑、泄露记忆信息,甚至输出不当或违法内容。

这些风险不是理论推演,而是真实发生的案例在倒逼行业关注。比如智能眼镜,容易被用于无感知偷拍、数据中转攻击等非法用途。因此需要解决其在本地图像识别、语音识别和空间交互中的数据权限与身份认证问题。

而像智能座舱助手,在车载环境中,座舱需要实时识别驾驶员的情绪状态,并联动车内空调、灯光、导航系统等多个控制模块。一旦模型出现幻觉输出、误判疲劳状态,就可能带来真实空间的安全风险。白皮书因此建议,在此类场景中强化模型鲁棒性、引入形式化验证机制、并设置动态风险评估系统。

为了应对这些高度复杂、层层递进的安全风险,《白皮书》提出了三大防护路径:单智能体安全、多智能体可信互连、AI终端安全,作为一份全面且具针对性的、可参考的安全指引。

 

其中,智能体安全技术涉及安全护栏、数据去毒、基座对齐和柔性管理;多智能体可信互连技术涉及可信数据流转、可信服务流转、可信身份认证和可信记忆共享;AI 终端安全技术涉及可信隐私沙箱、跨设备可信连接。

白皮书提出,智能体可信互连的核心,在于构建 “可信” 的智能体协作环境,具体体现在四个关键维度:可信连接、可信鉴权、可信意图、可信授权。它就像智能体世界的 “安全卫士”,从身份验证到数据传输,从需求处理到结果追溯,全程筑牢安全防线。

蚂蚁与IIFAA联盟的探索样本:当“安全”成为产品能力

本次《白皮书》由信通院、上海人工智能实验室、蚂蚁集团和IIFAA联盟四方联合发布。

蚂蚁集团作为积极在智能体安全实践的企业之一,在如Rokid Glasses、小米AI眼镜等AI终端产品中,基于首个智能眼镜的可信交互服务技术,确保用户在眼镜端完成的支付交易具备“可信身份”“可信执行环境”等多重安全保障;近期升级的“蚁天鉴”大模型安全解决方案,新增智能体安全评测功能,具备Agent对齐、MCP安全扫描、智能体安全扫描及零信任防御等四大核心功能,在智能体时代全面应对挑战。

为构建开放、安全、高效的智能体互联,建立统一协议标准,蚂蚁集团也深度参与到中国电子技术标准化研究院发起的“人工智能智能体协议共建共享联合倡议”,与产学研用各界伙伴共同推进国产智能体协议标准的制定与落地。

另一家核心联合方IIFAA联盟,一直致力于推动行业共同制定跨智能体交互的相关安全技术规范,共建开放、合作、共赢的智能体生态。

2024年12月,该联盟牵头成立国内首个智能体安全生态协作组织——“IIFAA智能体可信互连工作组”(下称“工作组”),专注推动跨智能体协作过程中的信任机制建设,解决多设备、多账号、多模型之间的数据调用、身份验证和权限边界问题。

今年4月,工作组推出业内首个智能体可信互连技术ASL(Agent Security Link)发布,该技术可以在MCP等协议的基础之上,保障各个智能体协作中在权限、数据、隐私等方面的安全,为Agent互连提供安全、可信的协作保障。

ASL构建了智能体之间的可信连接、构建运行时安全保护机制、构建业务安全防护机制等三方面核心能力,在智能体互连的时代,运行于 MCP、A2A 等任何智能体通信协议之上,作为已有互连协议的安全补充,解决智能体时代的安全威胁,为Agent互连提供安全、可信的协作保障。

联盟技术负责人万小飞表示,在智能终端快速发展的今天,单独一家企业很难承担构建智能终端可信体系的任务,智能终端的可信体系,需要生态共建共赢。“呼吁整个生态,共同完善智能体可信基础设施,共建智能体可信互连生态,最终共筑智能体协作信任网络。”

白皮书在结尾写道:如果说过去几年,智能体技术解决的是“能不能用”的问题,那么当下要面对的,则是“可不可信”的挑战。

在这个意义上,终端智能体的每一次系统更新,不只是能力增强,更是一次对人机信任机制的重塑。

 

 

21财经客户端下载

<--统计调用-->