PrivLLM 协变混淆:隐私保护的 LLM 推理高效实现
出处:
mp.weixin.qq.com
用户接入云上大模型(LLM)时,通常面临端-云数据交互如提示词上传等隐私泄露风险。常规脱敏和加密手段难以同时保障数据安全隐私和推理高效准确,陷入“安全”与“智能”不可兼得的困局。
为此,字节跳动安全研究团队提出了一种轻量、高效的大模型隐私保护新范式——协变混淆:在系统开销、用户体验等与明文推理基本相当的情况下,实现了用户数据端到端隐私保护;尤其在需要同时兼顾安全性、成本与能效等多方诉求的场景下,PrivLLM 成功突破了现有密码学、TEE 等技术机制的应用瓶颈。
查看原文
16
技术
lddgo
分享于
2026-03-30