Què és Flux de Hadoop?

Anys : Hadoop en streaming és una potent utilitat que ve amb Hadoop distribución.La concepte bàsic del marc de Hadoop és dividir el treball,processar en paral · lel i després unir-se de nou per obtenir el result.So final hi ha dos components principals que intervenen en aquest marc.
01:00) Aplicació de mapes
b) Reduir l'aplicació

La utilitat de Hadoop en streaming permet escriure Map / Redueix aplicacions en qualsevol llenguatge que sigui capaç de treballar amb entrada estàndard i sortida estàndard.

Etiquetatge en:

One thought on “Què és Flux de Hadoop?

  1. Dingcheng Li

    I read your introduction article about hadoop streaming. I found it really helpful. But I have more questions about how to use it.

    One main question I want to ask is if my perl script needs more than one argument, how can I pass them to the command line?

    For example, I used the following command, where I used multiple inputs to handle multiple arguments. But in fact, the data input is just the first one. All others are just some resources the perl script needs to read in to help process the first data input.

    hadoop jar /usr/lib/hadoop-mapreduce/hadoop-streaming.jar -D mapred.reduce.tasks=0 -D mapred.map.tasks.speculative.execution=false -D mapred.task.timeout=12000000 -input nlp_research/edt_nlp_data/3000001.txt -input shift.txt -input lists -input dict -input nlp_research/deid-1.1/deid.config -inputformat org.apache.hadoop.mapred.lib.NLineInputFormat -output perl_output -mapper deid_mapper.pl -file deid_mapper.pl

    If you can give me some guidance, that would be great!

============================================= ============================================== Buy best TechAlpine Books on Amazon
============================================== ---------------------------------------------------------------- electrician ct chestnutelectric
error

Enjoy this blog? Please spread the word :)

Follow by Email
LinkedIn
LinkedIn
Share