东方国信:7个步骤让大数据开口说话

2023-10-28 11:30

本文主要是介绍东方国信:7个步骤让大数据开口说话,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章讲的是 东方国信:7个步骤让大数据开口说话“让数据开口说话”,并不是一件容易的事。如同人类要想开口说话,信息的输入、储存、加工、处理,最终把思想以一种合适的方式表达出来,需要经过一个复杂的化学反应过程。对计算机系统而言,要想让数据开口说话,也要经过一个复杂的电子信息处理过程。在数据量呈爆炸式增长,数据类型呈多样化表现,数据价值日益受到重视的大数据时代,这个过程会变得更加复杂,应用也会更加广泛。

  东方国信,一家坚持了18年自主研发之路的IT企业,正在试图通过一个完整的解决方案让大数据开口说话。

  2014年8月7日,东方国信在北京召开了一次产品发布会,公司董事长兼总经理管连平宣布推出针对各行业大数据的“端到端的完整解决方案”,囊括了多达20多种产品。我们知道,看似或零碎、或杂乱的数据,要想变成对企业业务有价值的决策参考信息或营销建议,需要经历数据采集、存储、处理、加工、管理、监控、分析、展现等多道工序。东方国信的这20多种产品几乎在每道工序上都有所涉及。

东方国信:7个步骤让大数据开口说话
▲东方国信大数据产品线

  如此布局,东方国信也要面对来自Oracle、IBM、SAP、Cloudera、EMC、SAS等多家国际巨头的竞争,因为这些厂商在上述工序已经有一些非常有代表性的全球领先产品。“直接对标国际巨头进行自主研发”,东方国信的信心来自哪里?

  “来自三个方面,一是针对大数据这种新技术,大家都在起步阶段,国内外的差距比较小,;二是中国的客户更看重高投资回报率,注重性价比;三是国际厂商的产品对中国市场的适应性不强,比如一些功能用不上,不适合中国本土用户的使用习惯,而国外厂商又很难改变产品策略。”东方国信规划咨询总监李云峰博士表示,“所以我们有底气进行自主研发。”

  下面,我们来看看东方国信的产品组合是如何一步步让那些枯燥的大数据开始说话的。根据李云峰博士的专题介绍,笔者将其归纳为7个步骤:

  第一步:数据采集

  把数据采集上来,这是首要基础,无论是网站的用户访问日志,运营商网络设备端口信息,银行的交易记录,高炉里的温度数据等等,只有采集起来,才有进行下一步的可能。东方国信提供的Dprobe大数据采集设备从网络接口采集数据,可以为运营商的智能管道应用、政府的网络安全监管等领域实现海量数据的实时采集,通过硬件加速和软件相结合的方式,可以实现单台设备每秒10G的采集速度,远远高于传统x86方案的每秒3G,而且功耗只有1/8,体积只有1/6。

  第二步:数据存储

  在硬件层面,根据不同应用环境对于计算能力和存储能力的不同要求,东方国信推出了三种大数据专用设备:计算存储均衡型、计算密集型和存储密集型。比如对于银行环境中身份证扫描图像这种非结构化数据的存储,由于容量大,业务流转过程中也需要在线存取,就需要一种高性比、可扩展的方案来支撑。

  第三步:数据处理

  今天对于大数据的存储和处理,一般会想到使用Hadoop技术。Hadoop也已发展成为继Linux之后最成功的开源软件之一,成本低廉,扩展灵活。但问题在于,这种原生于互联网生态环境中的技术,要想用到传统企业计算环境,却并非易事。开源的Hadoop之所以不能直接用于企业信息系统,就在于其需求、服务、研发和运维体系都不同于互联网应用,比如访问网页时允许一定程度上的出错和数据丢失,但在银行转帐时如果出错,其后果就可能是灾难性的了。据中科院计算所副研究员查礼博士介绍,要想在企业环境中使用Hadoop,必须满足几个条件:兼容关系模型和SQL语言,完善关系模型产品与Hadoop“混搭”的架构,增强系统运维和数据处理工具,软硬一体优化配置硬件效能,集成开源社区Hadoop最新版本等。

  对此,东方国信专门开发了面向企业环境的Hadoop发行版,在底层的数据压缩技术、行列混合数据存储、图形化运维管理工具等方面做了增强,使得这种源于互联网的大数据技术也能适用于传统企业环境。

  据李云峰介绍,东方国信还开发了MPP分布式数据库,融合了Hadoop平台和MPP架构的优势,满足从TB级到PB级的海量数据存储和分析。其价值在于,这些数据可以分布在数百台普通服务器上,并能够被大量并发用户高速访问,从而满足数据密集型行业日益增大的数据分析、挖掘、备份和即席查询的需求。

  第四步:数据加工

  数据加工的关键在于找到数据之间的关联性,这些零散的信息关联在一起才能产生价值。比如在运营商环境中的“用户画像”,就是把某个用户的上网行为数据、关系链、交易信息、搜索数据等关联在一起,才得以实现,进而可以为这个用户提供更精准的个性能服务。李云峰谈到,东方国信解决方案的核心点在于通过云化ETL(提取-转换-加载)平台实现了数据的统一规范,并可实现横向扩展,满足对PB级数据的加工处理。

  显然,统一数据管理对于拥有多家子公司、多个系统的企业来说更为关键,否则即便是一个最简单的KPI指标,从不同的系统调出来都会大相径庭,导致企业领导无法决策。通过ETL工具来整合这些来自不同“孤岛”系统的数据,经过转换、清洗等步骤,让数据具备了开口说话的能力。

  除了ETL工具,元数据管理工具则可以弄清楚数据的来源、含义、类型等,进一步提高数据质量。数据质量平台可以实现全生命周期的质量监控和审核,保障数据的完整性、准确性、一致性和及时性。正是通过数据的加工,进而让数据建模、数据分析挖掘成为可能,大数据也才能正常说话,而不是胡言乱语。

  第五步:数据分析

  数据分析的目的是在海量的数据中挖掘出有价值的信息。李云峰谈到,东方国信的探索式分析工具,可以将几十亿条明细数据用思维导图的方式进行分析,以更直观的丰富视图来展示结果,从而深入洞察数据之间的关联性及潜在影响。在这一方面,东方国信的首眼点是,速度要快,而且分析的结果要方便共享,以展现给不同需要的人。至此,大数据平台已经准备好了要说的内容了。

  第六步:数据展现

  数据分析出来的结果往往会用于决策参考或辅助营销。东方国信通过自助报表的方式来构建展现过程,允许业务端的用户在终端对数据进行存取和个性化展现,这可以理解为大数据说话时非常灵活的表达方式。其中三个最典型的应用是统计报表、即席查询、OLAP分析,比如按时间、地域来关联分析以找到有用的信息。

  当然,针对不同的人,大数据要说的话也是不一样的。以东方国信的一大重要客户中国联通为例,针对内部的公司高层、分析人员、一线客户经理,以及外部的行业客户、咨询机构,大数据平台所呈现出来的内容也是丰富多彩,各不相同。正是基于东方国信的个性化定制工具以及自助报表,使得大数据在中国联通获得了极为广泛的实际应用价值。

  第七步:移动应用

  在移动互联网时代,如果能把数据分析的结果推送到手机或iPad上面,显然会进一步提高业务效率。东方国信已经将自助分析能力扩展到了移动设备,方便用户快速的看到自己喜欢的各种分析图表。

  比如,中国联通位于各地的一些一线客户经理,可能之前的职业是幼儿园的老师、护士,甚至不会使用EXCEL表,而“掌上营销”这样一款应用,无疑是为她们配上了一个“贴身的分析师”,随时随地查看自己客户的动态,根据分析结果判断哪些客户可能会流失,哪些客户需要生日问候,从而更快速地采取行动。

  可见,“让大数据开口说话”,看似简单,却是个复杂的系统工程。不同于其他厂商针对于单一产品的发力,东方国信此次推出的是一站式的解决方案,涉及产品众多。其实在笔者看来,今天的大数据领域并不缺乏技术层面的创新,市场上已经有很多不错的产品或技术出现,但能用好的并不多,真正缺乏的是应用层面的创新和落地。东方国信的大数据产品线聚合了很多先进的技术,如Hadoop、ARM服务器、流式计算、数据建模、移动计算等等,但其生命力还在于跟电信、金融等各行业业务实践的深度结合。毕竟,一个人要想说话,光有嘴巴是不行的,还需要耳朵、脑袋……以及源源不断的信息输入。大数据系统要想发挥出自身的价值,实时、准确地说得有见地的话,亦然!


作者:洪钊峰

来源:IT168

原文链接:东方国信:7个步骤让大数据开口说话

这篇关于东方国信:7个步骤让大数据开口说话的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/292902

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

pandas数据过滤

Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者