生产环境LZO文件压缩map数问题解决

2017-11-30

     SDK采集数据每天打包成lzo文件上到大数据平台,由于lzo不支持spilt,一个文件不能被多个map并行处理。这样大数据计算资源未能充分利用。   生产环境适合LZO么? 适合,但需要做出相关处理,普通的HDFS文件是textfile,由于lz...

spark2.0.1 csv文件转换parquet文件

2017-10-19

读取HDFS上csv文件转化为parquet import org.apache.spark.sql.{SQLContext, SparkSession} import org.apache.spark.sql.types._ object Demo { def main(args: Array[String]): Unit = { ...

kafka结合Spark Streaming 保证数据不丢失不重复处理问题

2017-08-11

本篇文章主要从二个方面展开: 一、Exactly Once 二、输出不重复 事务: 银行转帐为例,A用户转账给B用户,B用户可能收到多笔钱,如何保证事务的一致性,也就是说事务输出,能够输出且只会输出一次,即A只转一次,B只收一次。 从事务...

利用Flume将MySQL表数据准实时抽取到HDFS(转)

2017-06-29

一、为什么要用到Flume 在以前搭建HAWQ数据仓库实验环境时,我使用Sqoop抽取从MySQL数据库增量抽取数据到HDFS,然后用HAWQ的外部表进行访问。这种方式只需要很少量的配置即可完成数据抽取任务,但缺点同样明显,那就是实时性。Sqoop使...

spark FP-Growth树应用示例

2017-04-05

Scala package sparkFIM import java.util.concurrent.ConcurrentHashMap import org.apache.spark.mllib.fpm.FPGrowth import org.apache.spark.{SparkConf, SparkContext} import scala.collec...

elasticsearch2.3.4 (mysql导入elasticsearch中)

2017-03-02

Shell 1.https://github.com/jprante/elasticsearch-jdbc(插件源) wget http://xbib.org/repository/org/xbib/elasticsearch/importer/elasticsearch-jdbc/2.3.4.1/elasticsearch-jdbc-2.3.4.1-dist.z...

Hadoop中的Shuffle 与 Spark中的Shuffle得区别与联系

2017-02-15

MapReduce过程、Spark和Hadoop以Shuffle为中心的对比分析 mapreduce与Spark的map-Shuffle-reduce过程 mapreduce过程解析(mapreduce采用的是sort-based shuffle) 将获取到的数据分片partition进行解析,获得k/v对,之后交由map()进行...