谈球吧官方网站-体育技术平台

全国咨询热线

021-62492477

您的位置: 主页 > 新闻动态 > 企业新闻

生成式人工智能时代如何筑牢个人信息保护防线

发布时间:2026-03-03人气:

  

生成式人工智能时代如何筑牢个人信息保护防线(图1)

  党的二十届四中全会通过的《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》明确要求:“深化网络空间安全综合治理,加强个人信息保护。”个人信息权益作为数字社会运行的基石,直接关系到每个公民的尊严、自由与福祉。尽管个人信息保护法已为此奠定了法律基础,但技术的迭代速度正不断考验着现有保护框架的韧性。生成式人工智能(基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的人工智能技术分支)应用的爆发式增长,标志着AI从分析决策迈向了自主创造的新纪元,然而其依赖海量数据训练、生成内容不可控等特性,也在个人信息收集、使用与泄露环节引发了全新风险。如何在生成式人工智能浪潮中,通过构建动态、安全且可控的数据治理体系来筑牢个人信息保护防线,已成为推动数字时代健康发展必须直面和解决的关键命题。

  生成式人工智能技术的广泛运用,对个人信息权益保护提出新要求。传统统一规则主导的保护模式在应对模型训练、数据生成及跨场景应用等动态处理活动时存在不足,需探索基于风险分类、处理阶段差异化调整的保护路径,以契合技术实际,平衡保护与发展关系。保护措施需考量适当性与实效性,具体如下:

  强化数据收集环节的目的约束与范围管控。生成式人工智能开发依托大规模数据收集,易出现收集范围不明确或超限情况,如部分大型语言模型训练数据含未充分去标识化的个人文本信息。应坚持并细化目的明确与最小必要原则,要求运营者披露数据收集类型与用途,建立独立机构定期评估机制审查收集相关性,依法纠正无关或冗余收集行为。

  依据信息敏感度与使用场景实施差异化保护。个人信息风险随内容、上下文及处理方式动态变化,当前法律分类可进一步细化以应对生成式人工智能组合信息生成新内容的情况。例如医疗健康领域生成诊断建议时,个人健康数据应适用更严格标准,包括单独谈球吧官方网站明确同意、高级别加密,算法设计嵌入数据脱敏或本地化处理等隐私增强技术。

  通过明确政府监管边界与重点、落实企业内控责任、吸纳社会力量参与,形成多元协同规范实施路径,有助于缩小法律与技术实践差距。在生成式人工智能时代,应寻求技术发展与权利保护之间的动态平衡。唯有在个人信息保护的范围、边界和实现路径上形成更加清晰的制度安排和广泛共识,才能更好应对新业态发展带来的新情况新问题,推动数字经济健康有序发展,为人工智能时代个人信息权益提供坚实保障。

推荐资讯

021-62492477