《中华人民共和国数据安全法》解读(2)

2023-10-24 00:21

本文主要是介绍《中华人民共和国数据安全法》解读(2),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

《中华人民共和国数据安全法》解读(2)

  • 背景
  • 一个理解数据分类分级的小故事
  • 解读
    • 第三章 数据安全制度
    • 第四章 数据安全保护义务

背景

  接上一篇,本文主要解读第三章数据安全制度和第四章数据安全保护义务。第三章对于需要具体落实数据安全治理工作的小伙伴非常重要,需要重点理解的是:基于数据分类分级保护制度,形成事前、事后管控机制,数据安全审查制度则是贯穿始终。第四章对于个人和企业最为重要,明确了组织和个人应当承担的义务。
  对于企业或者个人而言,第三章是落实数据安全法的重要章节,第四章是依法行事的关键,需要大家认真的理解。

一个理解数据分类分级的小故事

  在具体解读之前,笔者想给各位小伙伴将一个故事,因为对于数据分类分级保护制度,很多数据从业的新朋友或者非专业的小伙伴可能会有些疑惑,疑惑在于为什么对于数据资产目录和数据分类分级保护十分重视,认为这不就是打个标签分个类吗?
  实则不然,笔者在这里举一个生动一些的例子来说明:老毛家里有很多矿(数据),在不同的山里头(系统),可是老毛什么矿都不认识,毕竟这些山头里面不仅有矿,还有更多的杂草和石头(垃圾数据)。最近呢老毛家里揭不开锅了,想卖点矿赚点钱,那什么都不认识该怎么办呢,自然先是需要分辨出来矿的种类,价值高低,最终经过仔细的分辨形成了一个矿产清单(数据资产目录),这个时候老毛知道了,哇原来我有这么多矿,那我得分类把这些贵的矿石放保险箱里面,便宜的铜铁放仓库里面,普通石头就在山头上扔着吧(数据分类分级保护制度)。
  和矿产一样,数据也是资产,想要挖掘出数据的价值,首先要做得就是制定数据资产目录,并根据制度对数据进行分类分级的保护。
  延伸讲一下,这里的数据价值本质上是数据自身的价值,继续拿有矿的老毛来举例,这个时候老毛就可以直接卖矿产原石了(原始数据),可原石太便宜了,老毛盖了个小的加工厂,把铁原石中一些杂质剔除(数据质量),自动化、标准化的制作了一些高纯度的铁原石(数据仓库),制造了一些铁盆铁锅(数据产品),而卖这些铁盆铁锅对比他卖原石而言,赚到了更多的钱。在不断发展中,老毛逐渐开始提供了矿石加工的服务(数据中台)。
  有这样的例子是不是更容易理解数据分类分级的管理,但是和矿产资源不同的是,数据具备可复制的特性,那么数据安全的管理对比实物的安全管理而言就更加的复杂,制度、工具、人三者缺一不可,本文主要目的在于理解数据安全法,这个故事也主要是为读者更好的理解后续内容理清思路,不至于读的晕头转向。

解读

第三章 数据安全制度

第二十一条 国家建立数据分类分级保护制度,根据数据在经济社会发展中的重要程度,以及一旦遭到篡改、破坏、泄露或者非法获取、非法利用,对国家安全、公共利益或者个人、组织合法权益造成的危害程度,对数据实行分类分级保护。国家数据安全工作协调机制统筹协调有关部门制定重要数据目录,加强对重要数据的保护。
关系国家安全、国民经济命脉、重要民生、重大公共利益等数据属于国家核心数据,实行更加严格的管理制度。
各地区、各部门应当按照数据分类分级保护制度,确定本地区、本部门以及相关行业、领域的重要数据具体目录,对列入目录的数据进行重点保护。

解读:明确数据分类分级保护制度的重要性,由国家建立具体制度,各地区各部门落实重要数据的具体目录。在具体条款中,并没有明确重要数据的定义标准,而是授权具体各地各部门来确认,充分体现了本法的普适性,也更贴合实际。
目前已有多个行业数据分类分级的国家标准发布,是大家重点需要参考的信息。
在企业当中,数据目录的制定也是落实数据安全的首要工作,同时参照国家标准,形成本企业(行业)的数据分类分级标准体系,区分不同数据的重要性,使用不同的数据保护手段。

第二十二条 国家建立集中统一、高效权威的数据安全风险评估、报告、信息共享、监测预警机制。国家数据安全工作协调机制统筹协调有关部门加强数据安全风险信息的获取、分析、研判、预警工作。

解读:集中统一、高效权威是重点,本条本质上是事前安全管理;

第二十三条 国家建立数据安全应急处置机制。发生数据安全事件,有关主管部门应当依法启动应急预案,采取相应的应急处置措施,防止危害扩大,消除安全隐患,并及时向社会发布与公众有关的警示信息。

解读:应急处置机制本质上是事后安全管理;

第二十四条 国家建立数据安全审查制度,对影响或者可能影响国家安全的数据处理活动进行国家安全审查。
依法作出的安全审查决定为最终决定。

解读:追责制度,明确可能影响国家安全的数据处理活动,由国家根据制度进行安全审查,且该审查决定为最终决定。本条为安全审查提供了有力的保障。

第二十五条 国家对与维护国家安全和利益、履行国际义务相关的属于管制物项的数据依法实施出口管制。

解读:明确数据和实物资产一样,是收到出口管制的管制物项;

第二十六条 任何国家或者地区在与数据和数据开发利用技术等有关的投资、贸易等方面对中华人民共和国采取歧视性的禁止、限制或者其他类似措施的,中华人民共和国可以根据实际情况对该国家或者地区对等采取措施。

解读:“对等”体现出了国家建立平等数据交易市场的决心,也是对当今国际部分地区数据壁垒政策的反击。在过去的几年中,我国已经遭受了许多来自于其他国家和地区的限制性措施。
第三章 数据安全制度的整体理解

第四章 数据安全保护义务

第二十七条 开展数据处理活动应当依照法律、法规的规定,建立健全全流程数据安全管理制度,组织开展数据安全教育培训,采取相应的技术措施和其他必要措施,保障数据安全。利用互联网等信息网络开展数据处理活动,应当在网络安全等级保护制度的基础上,履行上述数据安全保护义务。
重要数据的处理者应当明确数据安全负责人和管理机构,落实数据安全保护责任。

解读:
  本节主要明确了开展数据处理活动的办法流程,第一段每一句话都是我们个人或者企业合法使用数据的要求:
1.依照法律、法规的规定:主要遵循网络安全法和本法的规定,涉及到的标准规范主要包括《个人信息安全规范》《大数据服务安全能力要求》《大数据安全管理指南》《数据安全能力成熟度模型》《数据交易服务安全要求》等
2.开展数据处理活动方应当建立健全全流程数据安全管理制度:这一句的范围较大,简单来说包括数据录入(发现)、数据采集、数据存储、数据传输、数据交换、数据应用、数据服务、数据交易、数据销毁等过程均需要相关管理制度;
3.组织开展数据安全教育培训:由于数据可复制性,数据安全中对人员的管理也是有要求的,需要相关人员有较强的安全意识和责任担当。
4.技术措施和其它必要措施:技术上事前预防,脱敏,制定策略阻止风险,强化密码技术保障安全;事中监控,收到风险及时报警并阻断;事后归纳总结,修补漏洞,完善安全策略。其它必要措施包括租户、分级权限、实名制,数据申请及审核等相应措施
  重要数据的处理者应责任到人,责任人相关的资质要求尚未明确,目前缺乏量化的标准。后续可能会有相关配套文件说明。

第二十八条 开展数据处理活动以及研究开发数据新技术,应当有利于促进经济社会发展,增进人民福祉,符合社会公德和伦理。

解读:明确开展数据处理活动的基本要求。

第二十九条 开展数据处理活动应当加强风险监测,发现数据安全缺陷、漏洞等风险时,应当立即采取补救措施;发生数据安全事件时,应当立即采取处置措施,按照规定及时告知用户并向有关主管部门报告。

解读:明确数据处理活动中风险的事前、事中、事后处理要求

第三十条 重要数据的处理者应当按照规定对其数据处理活动定期开展风险评估,并向有关主管部门报送风险评估报告。
风险评估报告应当包括处理的重要数据的种类、数量,开展数据处理活动的情况,面临的数据安全风险及其应对措施等。

解读:明确数据安全将有监管要求,并需要报送主管部门。后续应该会有相应的监管要求的配套文件说明。

第三十一条 关键信息基础设施的运营者在中华人民共和国境内运营中收集和产生的重要数据的出境安全管理,适用《中华人民共和国网络安全法》的规定;其他数据处理者在中华人民共和国境内运营中收集和产生的重要数据的出境安全管理办法,由国家网信部门会同国务院有关部门制定。

解读:明确重要数据的出境管理原则。

第三十二条 任何组织、个人收集数据,应当采取合法、正当的方式,不得窃取或者以其他非法方式获取数据。
法律、行政法规对收集、使用数据的目的、范围有规定的,应当在法律、行政法规规定的目的和范围内收集、使用数据。

解读:明确禁止非法获取数据

第三十三条 从事数据交易中介服务的机构提供服务,应当要求数据提供方说明数据来源,审核交易双方的身份,并留存审核、交易记录。

解读:明确要求数据来源可追溯,保证数据交易中的数据来源可查,数据将需要类似于交易凭证的证明来保障其合法来源。

第三十四条 法律、行政法规规定提供数据处理相关服务应当取得行政许可的,服务提供者应当依法取得许可。

解读:明确数据处理应按规定取得行政许可。

第三十五条 公安机关、国家安全机关因依法维护国家安全或者侦查犯罪的需要调取数据,应当按照国家有关规定,经过严格的批准手续,依法进行,有关组织、个人应当予以配合。

解读:明确组织、个人应当如何配合境内执法。

第三十六条 中华人民共和国主管机关根据有关法律和中华人民共和国缔结或者参加的国际条约、协定,或者按照平等互惠原则,处理外国司法或者执法机构关于提供数据的请求。非经中华人民共和国主管机关批准,境内的组织、个人不得向外国司法或者执法机构提供存储于中华人民共和国境内的数据。

解读:明确组织、个人应当如何配合境外执法,明确未经主管机关批准不得提供数据,这一点强势的体现出了国家对国家主权和数据安全的捍卫。

这篇关于《中华人民共和国数据安全法》解读(2)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/271429

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

pandas数据过滤

Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav

MCU7.keil中build产生的hex文件解读

1.hex文件大致解读 闲来无事,查看了MCU6.用keil新建项目的hex文件 用FlexHex打开 给我的第一印象是:经过软件的解释之后,发现这些数据排列地十分整齐 :02000F0080FE71:03000000020003F8:0C000300787FE4F6D8FD75810702000F3D:00000001FF 把解释后的数据当作十六进制来观察 1.每一行数据