
课程咨询: 400-996-5531 / 投诉建议: 400-111-8989
认真做教育 专心促就业
我们在前几期的文章中给大家简单介绍了程序员入门互联网行业需要学习的一些技术知识等内容,而本文我们就再来了解一下,大数据入门需要掌握哪些技术。
数据采集和传输层
Flume
Flume一个分布式、可靠的、高可用的用于数据采集、聚合和传输的系统,常用于日志采集系统中。
Logstash
ELK中的一员,也常用于数据采集。
Sqoop
Sqoop主要通过一组命令进行数据导入导出的工具,主要用于Hadoop(如HDFS、Hive、HBase)和RDBMS(如mysql、oracle)之间的数据导入导出。
Kafka/RocketMQ
高性能的的消息队列,主要应用在数据缓冲、异步通信、汇集数据、系统解耦等方面。
数据存储层
HDFS
分布式文件存储系统,HDFS非常适合大规模数据集上的应用,提供高吞吐量的数据访问,可部署在廉价的机器上。
HBase
是一款基于HDFS的数据库,是一种NoSQL数据库,主要适用于海量明细数据(十亿、百亿)的随机实时查询,如日志明细、交易清单、轨迹行为等。
HBase可以认为是HDFS的一个包装。他的本质是数据存储,是个NoSql数据库;HBase部署于HDFS之上,并且克服了HDFS不能随机读写的问题。
Kudu
介于HDFS和HBase之间的基于列式存储的分布式数据库。兼具了HBase的实时性、HDFS的高吞吐,以及传统数据库的sql支持。
数据计算与分析层
MapReduce
分布式运算程序的编程框架,适用于离线数据处理场景。
Yarn
Yarn是一个资源调度平台,负责为运算程序分配资源和调度,不参与用户程序内部工作。
Hive
Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供HQL语句(类SQL语言)查询功能,存储依赖于HDFS。本质上是把好写的hive的sql转换为复杂难写的map-reduce程序。
Spark
Spark是一个快速、通用、可扩展、可容错的、内存迭代式计算的大数据分析引擎。目前生态体系主要包括用于批数据处理的SparkRDD、SparkSQL,用于流数据处理的SparkStreaming,用于机器学习的SparkMLLib,用于图计算的Graphx以及用于统计分析的SparkR。
Flink
Flink是一个分布式的实时计算引擎,可以对有限数据流和无限数据流进行有状态的计算。
Storm
Storm是一个没有批处理能力的数据流处理计算引擎,是由Twitter开源后归于Apache管理的分布式实时计算系统。
Phoenix
构建在HBase之上的一个SQL层,能让我们通过标准的JDBCAPI操作HBase中的数据。
【免责声明】:本内容转载于网络,转载目的在于传递信息。文章内容为作者个人意见,本平台对文中陈述、观点保持中立,不对所包含内容的准确性、可靠性与完整性提供形式地保证。请读者仅作参考。更多内容请加danei456学习了解。欢迎关注“达内在线”参与分销,赚更多好礼。