深度!近期所谓“优酷数据泄露事件”的客观事实还原

2024-01-13 21:20

本文主要是介绍深度!近期所谓“优酷数据泄露事件”的客观事实还原,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文讲的是 深度!近期所谓“优酷数据泄露事件”的客观事实还原17日网络爆出 疑似优酷上亿数据泄漏 的新闻,标题为《优酷账号密码疯狂泄露!》,威胁猎人团队通过近期的黑产监控数据给大家客观的展现这次泄露出的数据在各维度情况,还原此次事件。

数据最早泄露于今年一月份

1)已知的泄漏源

对于这类地下信息,新闻的时效性往往相对较慢。据我们的数据监控,这份数据至少在2017年1月份就已经在暗网的地下市场 HANSA Market 流通,可见销量在20多份,价格300美金,随后又出现过多个版本的不同卖家。

深度!近期所谓优酷数据泄露事件的客观事实还原

从原始数据来看,泄漏量确实在1亿条以上,数据以“明文账号+md5密码”的形式保存,但该数据是否真实优酷数据未经过验证。

实际上,在 HANSA Market 上还有一份被另一个黑客 doubleflag 还原过的同一份数据,md5加密被还原了大约8000万明文密码。可以看到销量100多份,价格400美金。其危害比暴露出来的要更严重。

深度!近期所谓优酷数据泄露事件的客观事实还原

2)数据内容及格式分析

此次曝光出的数据的账户名全是电子邮箱格式。

邮箱服务商分布

深度!近期所谓优酷数据泄露事件的客观事实还原

黑产数据历史重合度

通过抽查部分数据和历史黑产数据进行比对,大约有73%的数据存在历史泄漏数据中已经存在。

深度!近期所谓优酷数据泄露事件的客观事实还原

异常数据

通过数据分析,还发现存在不少账号对应多个密码,以及邮箱后缀多次拼接的痕迹,数据来自黑产拼凑的痕迹明显。

深度!近期所谓优酷数据泄露事件的客观事实还原

3)厂商应对

在事件曝光后,我们发现优酷已经增加了基于这份数据的风控逻辑,针对这批帐号强制要求更换密码,让这批已曝光的帐号密码进一步走身份验证流程,把帐号还到好人手里。这也是应对该类事件最好方式之一,因为存在长期“多人骑”的情况,通过用户日志数据已难以明确好人画像。

深度!近期所谓优酷数据泄露事件的客观事实还原

该数据早已活跃在撞库攻击黑产

我们翻开今年的监控数据,发现所谓的“优酷泄露数据”其实早已活跃在黑产的撞库攻击行为中。并且对这份数据在黑产中的行为以及危害做了客观的统计和分析。

1)此次泄露的数据在撞库黑产中一直存在

我们分析了最近半个月全球的撞库攻击黑产流量,其中来自此次泄露数据的攻击平均占比在1.04%,并且在可寻的半年内一直存在。

深度!近期所谓优酷数据泄露事件的客观事实还原

2)此次数据泄露直接危害

版权类网站一直是黑产的主要攻击对象之一,在之前的报告中,我们曾分析过国内被撞库攻击的公司类型,如图:

深度!近期所谓优酷数据泄露事件的客观事实还原

由于近年来网速的增长,以前大家习惯通过下载最新电影电视剧,现在则更愿意在线直接看。因此许多寻找种子的用户变成了低价购买视频网站会员的用户。版权类网站最直接的黑产链条便是从第三方购买“共享账号“会员,相关行情,笔者在相关QQ群对“业内”报价进行了调查(价格仅供参考):

爱奇艺:
临时会员2.9元(质保2天)
临时会员4.9元(质保7天)
稳定会员9.9元(质保一个月)
优酷:
会员普通 3.9元(质保2天)
会员稳定8.9元(质保一月)
一年会员40.9元(质保200天)
腾讯视频:
好莱坞会员9.9元(质保一月)
3)其他公司受影响

从该份数据近期的二次攻击流向上看,主要流向是几家游戏类公司,与前面撞库攻击的行业分析结论比较匹配。

深度!近期所谓优酷数据泄露事件的客观事实还原

重新思考这次事件

最后,我们认为这并不是一起因黑客攻入核心服务器导致的突发安全问题,而是由于长期持续的撞库攻击导致的密码泄露问题。

从CSDN数据泄露事件之后,整个国内互联网企业已经把数据加密存储认知成基础安全重要一项任务。从这个角度来说,对拖库给企业带来的影响在帐号安全方面正在降低,反而是其他的商业及个人身份信息数据,因为直接的变现路径,成为数据泄露主要的影响。




原文发布时间为:2017年4月19日
本文作者:威胁猎人
本文来自云栖社区合作伙伴嘶吼,了解相关信息可以关注嘶吼网站。
原文链接

这篇关于深度!近期所谓“优酷数据泄露事件”的客观事实还原的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/602813

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

禁止平板,iPad长按弹出默认菜单事件

通过监控按下抬起时间差来禁止弹出事件,把以下代码写在要禁止的页面的页面加载事件里面即可     var date;document.addEventListener('touchstart', event => {date = new Date().getTime();});document.addEventListener('touchend', event => {if (new

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

pandas数据过滤

Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav