大数据时代的互联网信息安全考试
考试时间: 120分钟 总分: 100分

单项选择题(每题2分,共20分)
-
大数据的核心特征“4V”不包括以下哪一项? A. Volume(大量) B. Velocity(高速) C. Variety(多样) D. Veracity(真实) E. Virtualization(虚拟化)
-
在大数据环境中,对数据资产进行分类分级的主要目的是? A. 提高数据存储效率 B. 实现差异化、精细化的安全防护策略 C. 方便数据查询和检索 D. 降低数据处理的成本
-
以下哪种攻击方式在大数据时代变得尤为突出和难以防范? A. SQL注入攻击 B. 分布式拒绝服务攻击 C. 数据投毒攻击 D. 钓鱼邮件攻击
-
“数据脱敏”技术的主要作用是? A. 加密数据,防止未授权访问 B. 从数据集中移除或替换敏感信息,保护个人隐私 C. 压缩数据,减少存储空间 D. 对数据进行格式化,使其更易于分析
(图片来源网络,侵删) -
大数据平台的分布式架构(如Hadoop、Spark)给传统网络安全带来了新挑战,主要体现在? A. 网络边界变得模糊,传统防火墙难以有效防护 B. 数据传输速度过快,导致加密算法失效 C. 节点数量过多,无法进行有效的身份认证 D. 存储容量过大,无法进行病毒扫描
-
某电商平台利用用户的历史购买、浏览和搜索数据,构建了一个精准的用户画像模型,这主要体现了大数据的哪个价值? A. 提升运营效率 B. 实现个性化推荐 C. 进行风险预测 D. 优化供应链
-
在大数据安全中,“数据生命周期管理”的关键环节不包括? A. 数据生成与采集 B. 数据存储与备份 C. 数据销毁与归档 D. 数据展示与美化
-
以下哪项技术最常被用于大数据环境下的异常行为检测? A. 对称加密算法 B. 数字签名 C. 机器学习/深度学习 D. 公钥基础设施
(图片来源网络,侵删) -
欧盟《通用数据保护条例》的核心原则强调,对个人数据的处理必须有“合法依据”,并遵循“数据最小化”原则,这反映了大数据时代对哪项权利的重视? A. 数据财产权 B. 隐私权和自主决定权 C. 数据收益权 D. 数据访问权
-
针对大数据分析的“结果投毒”攻击,其目标是? A. 破坏或污染原始训练数据,导致分析模型产生错误或偏见的结果 B. 窃取分析结果中的商业机密 C. 中断大数据分析服务器的运行 D. 在分析结果中植入恶意代码
多项选择题(每题3分,共15分,多选、少选、错选均不得分)
-
大数据时代,数据泄露的风险来源可能包括? A. 外部黑客攻击 B. 内部员工的恶意或无意操作 C. 第三方服务提供商的安全漏洞 D. 云服务配置错误 E. 物理介质(如硬盘、U盘)丢失或被盗
-
为了保障大数据分析的隐私安全,可以采用的技术组合包括? A. 数据加密(传输中、静态) B. 访问控制与身份认证 C. 数据脱敏与匿名化 D. 安全多方计算 E. 差分隐私
-
以下哪些是大数据平台面临的主要安全威胁? A. 节点被植入挖矿程序 B. YARN资源被恶意抢占,导致服务拒绝 HDFS存储数据被未授权访问 D. Hive metastore元数据泄露 E. MapReduce任务被篡改,执行恶意代码
-
建立一个大数据安全体系,应遵循哪些核心原则? A. 零信任架构原则 B. 数据驱动安全原则 C. 安全左移原则 D. 最小权限原则 E. 纵深防御原则
-
数据主权和数据本地化是近年来重要的数据治理议题,其主要原因包括? A. 保护本国公民的个人信息和隐私 B. 维护国家安全和经济利益 C. 避免数据因跨境流动而受到不同司法管辖区的法律冲突 D. 降低跨国数据传输的成本 E. 提升全球数据治理的话语权
判断题(每题2分,共10分,正确的打“√”,错误的打“×”)
-
大数据的“3V”特征(Volume, Velocity, Variety)是绝对的,任何不符合这3个特征的数据集都不能被称为大数据。( )
-
数据加密是保障大数据安全的唯一有效手段。( )
-
在大数据环境下,由于数据量巨大,传统的基于签名的入侵检测系统已经完全失效。( )
-
“数据最小化”原则要求在处理数据时,只收集和保留实现特定目的所必需的最少数据。( )
-
隐私保护计算技术旨在实现“数据可用不可见”,即在不暴露原始数据的前提下进行联合计算和分析。( )
简答题(每题10分,共30分)
-
简述大数据时代信息安全面临的主要挑战。
- 答: 大数据时代信息安全面临的主要挑战包括:
- 攻击面扩大与威胁复杂化: 数据集中存储、分布式架构、API接口增多,导致攻击面急剧扩大,数据泄露、勒索软件、APT攻击等威胁更加复杂和隐蔽。
- 隐私保护压力剧增: 海量个人数据的收集和分析,使得隐私泄露风险空前提高,如何在数据价值挖掘与个人隐私保护之间取得平衡,成为核心难题。
- 数据安全防护难度提升: 海量、异构、高速流动的数据使得传统的边界防护技术(如防火墙)效果减弱,数据分类分级、访问控制、安全审计等操作的难度和成本都大幅增加。
- 新型攻击手段涌现: “数据投毒”攻击通过污染训练数据来误导机器学习模型;“逆向推理”攻击利用公开数据推断出敏感信息;“结果投毒”攻击污染分析结果。
- 安全合规要求趋严: 全球各国纷纷出台数据安全和个人信息保护相关法律法规(如GDPR、中国的《数据安全法》、《个人信息保护法》),对企业的数据治理能力提出了更高要求。
- 答: 大数据时代信息安全面临的主要挑战包括:
-
请解释什么是“数据生命周期安全”,并简述其在不同阶段应采取的关键安全措施。
- 答: “数据生命周期安全”是指对数据从产生、传输、存储、使用、共享、销毁直至归档的全过程进行系统性、连贯性的安全保护。
- 数据生成/采集阶段: 确保数据源的合法性、真实性,对采集行为进行授权和审计。
- 数据传输阶段: 采用强加密算法(如TLS/SSL)对传输中的数据进行加密,防止数据在传输过程中被窃听或篡改。
- 数据存储阶段: 对静态数据进行加密存储,实施严格的访问控制策略,进行数据备份和容灾,防止数据丢失或未授权访问。
- 数据使用/处理阶段: 遵循最小权限原则,对数据访问和操作进行授权和审计,采用数据脱敏、匿名化等技术,在开发、测试等非生产环境中使用“伪数据”。
- 数据共享/交换阶段: 建立数据共享审批流程,对共享出去的数据进行脱敏或使用安全多方计算、联邦学习等隐私计算技术。
- 数据销毁/归档阶段: 对不再需要的数据进行安全、彻底的销毁(如低级格式化、消磁、物理销毁),确保数据无法被恢复,对需要长期归档的数据,应进行加密并置于安全的环境中。
- 答: “数据生命周期安全”是指对数据从产生、传输、存储、使用、共享、销毁直至归档的全过程进行系统性、连贯性的安全保护。
-
什么是“零信任”(Zero Trust)架构?为什么说它非常适合应用于大数据安全防护?
- 答:
- 零信任架构的核心思想: “永不信任,始终验证”(Never Trust, Always Verify),它摒弃了传统的“内网比外网安全”的边界防护理念,认为网络内部和外部都充满了威胁,任何用户、设备或应用在访问资源之前,都必须经过严格的身份认证、授权和安全状态评估。
- 为什么适合大数据安全:
**适应分布式架构
- 答:
