luigi学习1

一、luigi介绍

luigi是基于python语言的,可帮助建立复杂流式批处理任务管理系统。这些批处理作业典型的有hadoop job,数据库数据的导入与导出,或者是机器学习算法等等。

luigi的github:https://github.com/spotify/luigi

目前已经有一些抽象层次较低的数据处理工具,比如hive,pig,cascading等。luigi并不是要取代他们,而是帮助你管理这些作业,luigi的task可以是一个hive查询,java写的hadoop作业,一个scala写的spark作业或一个python程序等。luigi提供了互相依赖的大量作业的工作流程管理,所以程序员可以把他们的精力放到作业本身。

目前有一些相似的项目比如Oozie和Azkaban。一个重要的区别是luigi并不仅仅为hadoop作业,它可以很方便的扩展其他类型的任务。

二、luigi官网的hello world例子

2.1top Artists例子的目的

这个例子的目的想要集合一些生产数据的流,然后找到前10个artists,并把最终的结果保存到数据库

2.2Aggregate Artist Streams

class AggregateArtists(luigi.Task):date_interval = luigi.DateIntervalParameter()def output(self):return luigi.LocalTarget("data/artist_streams_%s.tsv" % self.date_interval)def requires(self):return [Streams(date) for date in self.date_interval]def run(self):artist_count = defaultdict(int)for input in self.input():with input.open('r') as in_file:for line in in_file:timestamp, artist, track = line.strip().split()artist_count[artist] += 1with self.output().open('w') as out_file:for artist, count in artist_count.iteritems():print >> out_file, artist, count

对于这个类的解释:

requires方法:这个方法指定了本task需要的依赖,在这个例子中,AggregateArttists依赖一个Stream作业,Stream作业需要一个日期作为参数。

参数:每一个作业都可以定义一个或者多个参数,这些参数需要定义在类级别。比如上面这个类就有一个参数date_interval

output方法:定义了作业结果的保存地。

run方法:对于普通的task,你需要实现run方法。在run方法中可以是任何东西,可以创建子进程,进行长时间的算术运算等等。对于一些task的子类,你就不需要实现run方法了,比如JobTask要求你实现mapper和reducer方法。

LocalTarget:这是一个内置的类,可以帮助你很容易的读取或者写本地磁盘。并且保证对磁盘的操作是原子性的。

2.3Streams

class Streams(luigi.Task):date = luigi.DateParameter()def run(self):with self.output().open('w') as output:for _ in range(1000):output.write('{} {} {}\n'.format(random.randint(0, 999),random.randint(0, 999),random.randint(0, 999)))def output(self):return luigi.LocalTarget(self.date.strftime('data/streams_%Y_%m_%d_faked.tsv'))

 

 这个类没有依赖,最终产生的效果是在本地文件系统上产生一个结果文件。

2.4在本地执行

PYTHONPATH='' luigi --module top_artists AggregateArtists --local-scheduler --date-interval 2012-06

 

执行完成之后,在当前目录下产生了一个data目录,data目录下的内容如下:

(my_python_env)[root@hadoop26 data]# ls
artist_streams_2012-06.tsv    streams_2012_06_06_faked.tsv  streams_2012_06_12_faked.tsv  streams_2012_06_18_faked.tsv  streams_2012_06_24_faked.tsv  streams_2012_06_30_faked.tsv
streams_2012_06_01_faked.tsv  streams_2012_06_07_faked.tsv  streams_2012_06_13_faked.tsv  streams_2012_06_19_faked.tsv  streams_2012_06_25_faked.tsv
streams_2012_06_02_faked.tsv  streams_2012_06_08_faked.tsv  streams_2012_06_14_faked.tsv  streams_2012_06_20_faked.tsv  streams_2012_06_26_faked.tsv
streams_2012_06_03_faked.tsv  streams_2012_06_09_faked.tsv  streams_2012_06_15_faked.tsv  streams_2012_06_21_faked.tsv  streams_2012_06_27_faked.tsv
streams_2012_06_04_faked.tsv  streams_2012_06_10_faked.tsv  streams_2012_06_16_faked.tsv  streams_2012_06_22_faked.tsv  streams_2012_06_28_faked.tsv
streams_2012_06_05_faked.tsv  streams_2012_06_11_faked.tsv  streams_2012_06_17_faked.tsv  streams_2012_06_23_faked.tsv  streams_2012_06_29_faked.tsv

 

 streams_*:就是stream作业生成的。

artist_*:是AggregateArtists生成的,就一个文件而已

2.5扩展

再次运行上面的执行命令发现并没有执行任何操作,因为所有任务的output已经存在。这意味着luigi的task都是幂等的,也就是说不管执行多少次,作业的输出应该是不变的。

--local-scheduler告诉luigi不要去连接scheduler server。这是不推荐的运行方式,这种方式也就用在测试阶段。

转载于:https://www.cnblogs.com/dongdone/p/5702935.html


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部