2025年,中国信息通信研究院发布了一份重磅研究报告——《数据治理研究报告:端侧大模型数据治理法律要点研究(2025年)》,全文共49页。这份报告深入剖析了AI大模型在手机、智能汽车、可穿戴设备等终端设备上的应用,聚焦其带来的隐私保护、数据安全与法律合规挑战,为我们揭示了“智能在端,风险也在端”的现实图景。
一、市场现状:AI已“潜入”你的生活- 无处不在的终端设备:手机、手表、汽车、家居都已搭载“端侧大模型”,实现离线语音助手、健康监测、个性化推荐等功能。
- 技术特点鲜明:本地化处理(数据不上传)、轻量化部署(省电省流量)、个性化服务(更懂你)、端云协同(灵活调度资源)。
- 用户态度复杂:既享受便利,又担忧隐私——比如你的声纹可能被还原,你的行为可能被预测。
- 数据泄露风险高:端侧数据可能被逆向攻击还原,设备丢失或遭黑客攻击会导致敏感信息外泄。
- “告知-同意”规则失灵:AI训练用了海量公开数据,无法一一征得用户同意;一揽子授权又容易过度收集信息。
- 用户权利难保障:你想删除AI记忆里的个人信息?很难,因为数据分散在数十亿模型参数里,删不掉、改不了、移不走。
- 责任划分模糊:终端厂商、模型开发者、APP服务方,到底谁该为数据泄露负责?目前法律还没说清。
- 欧盟:严格保护个人数据,GDPR照用,但也在尝试灵活处理AI场景。
- 美国:分行业、分场景监管,鼓励企业自律,避免过度限制创新。
- 中国:在现有法律框架下探索,强调“告知-同意”、最小必要原则,司法案例也在逐步厘清责任。
- 完善法律:分级告知、弹性适用最小必要原则、强化特殊群体(如儿童、老人)保护。
- 明确责任:制定多方责任清单,推行“举证责任倒置”,降低用户维权门槛。
- 技术工具跟上:开发轻量化脱敏工具、部署“监管沙盒”、推动隐私计算技术落地。
- 协同治理:政府、行业、技术机构三方联动,建立动态评估与信息共享机制。
- 国际合作:推动制定国际数据安全准则,加强技术研发与经验交流。
这份报告像一面镜子,照出了AI时代“便捷与风险并存”的现实。它告诉我们:技术越智能,治理越要跟上。未来,我们需要在“鼓励创新”和“保护隐私”之间找到平衡点,让AI真正成为服务人、保护人、赋能人的工具,而不是隐私的“隐形收割机”。企业要合规,用户要警惕,法律要完善,技术要向善——只有这样,我们才能拥抱一个“智能在端,安全在握”的数字未来。
报告节选




















