【2020遴选政策理论】用户数据的使用与隐私保护:认知误区与规则界限(2)
2020-08-29 18:44:25 华图遴选考试网 http://gxg.huatu.com/ 作者:liqingjian 来源:未知
遴选考试网微信公众号:htgonglinxuan
2.智能化技术在数据的使用上是采用“去标识化”的处理,用以保护用户隐私
有学者提出,从数据生命周期来看,数据发布阶段的匿名发布技术,数据存储阶段的加密存储技术和审计技术,数据使用阶段的加密访问控制技术等不断完善。在技术上,通过隐私保护技术完成数据流通和数据处理,避免数据直接流通导致泄露用户隐私。近两年来,联邦学习技术(Federated Learning)作为一种新的分布式学习方法,共享模型参数更新,而不是客户端设备中的原始数据,也展现了强大的用户隐私保护能力。在《“抖音”隐私政策》中,关于隐私信息管理技术也规定,“使用不低于行业同行的加密技术、匿名化处理及相关合理可行的手段保护您的个人信息……采取严格的数据使用和访问制度,确保只有授权人员才可访问您的个人信息,并适时对数据和技术进行安全审计”。
3.从算法上看,智能算法模型是不可逆,因此是无法反推用户隐私信息的
根据匿名网民的评论,分布式机器学习不是传输数据,而是传输一个训练好的模型。“联邦学习的出现就是为了公司希望获得数据来训练模型,但是又不能泄露用户隐私,所以会在用户本地设备上进行一次学习,将学习好的简单模型上传至公司端,再对参数进行聚合等操作之后再来训练,得到一个较好的模型之后将模型参数传回去,对每个设备进行一次模型优化,以此迭代。”然而,也有网民提出,这也有可能涉及隐私问题,“通过训练完成的神经网络模型反推出训练数据中的敏感信息”,他者有可能利用模型的输出结果,通过参数、权重,来倒推某些训练数据中的敏感信息的可能性与结果。
然而,从总体来反向推断样本,所谓“AI的逆向推理和特征解码”,其实现的可能性有多大,可信度与效果究竟如何,依然未经过大量科学研究的正式检验。正如网友“琉璃”所说,“机器学习模型本质是一个统计信息的集合,这种推介算法模型只能提供群体的兴趣倾向性的统计信息。从模型反推原始数据极难,而且没多少意义”。
四、简要的结论
必须指出,个人隐私保护是必须的,但个人信息的合法使用也是智能化发展中所必须的。其中是否合理合法的界限是:个人信息的采集和使用必须履行知情同意的原则,并且不因个人信息的采集和使用而对相关个人的利益、形象及社会关系产生明确和实质性的负面影响。在此界限下,我们应以开放的态度迎接智能化时代的到来,并且提升我们对于智能化技术的理解,为中国互联网企业的发展营造良好舆论氛围和社会支持。
(编辑:liqingjian)

以上是【2020遴选政策理论】用户数据的使用与隐私保护:认知误区与规则界限(2)的所有内容,更多遴选相关信息欢迎访问公选遴选考试网,还有公选遴选职位库和遴选题库供广大考生朋友使用。

2022年华图遴选选调备考交流群。扫描左侧二维码即可加入,群内免费提供海量遴选考试备考资料及全国各省历年遴选考试真题,并及时更新推送全国各类遴选考试招考信息,第一时间获取招考资讯。
华图教育APP客户端下载
关键词阅读:遴选政策理论
- “有一是一、有二是二”_中央遴选政策理论 2023.04.05
- 推动学习贯彻习近平新时代中国特色社会主义思想 2023.04.05
- 用英烈精神滋养青少年拔节成长_地方遴选政策理论 2023.04.03
- 用心做好“为”的文章_地方遴选政策理论 2023.04.02
- 中国式现代化彰显中国精神_地方遴选政策理论 2023.04.02
- 正确理解和大力推进中国式现代化_地方遴选政策理 2023.04.01