Hvad er Map / Reduce i Hadoop?

År : Behandling enorm mængde data (multi-terabyte data-sæt) er et stort problem i det virkelige liv projects.As størrelsen af ​​data er stigende dag for dag, applikationer har svært ved at behandle det på en pålidelig,sikret og fejltolerant måde.

Her kommer Hadoop Map / Reduce framework.It hjælper med at skrive applikationer nemt hvilken proces enorm mængde data der holder alle de bekymringer i mind.The største fordel er, Kort / Reduce tillader parallel behandling på store klynger af commodity-hardware.

De vigtigste begreber bag Map / Reduce er

a) Opdel jobbet i selvstændige opgaver (kendt som Kort opgaver).
b) Behandl opgaverne i en parallel måde.
c) Sortere outputtet af kortene og sende dem som input til Reducer opgave (kendt som Reducer opgaver).

Så det er dybest set parallel behandling af klumper og derefter forbinde dem tilbage for at få enden result.The rammer tager sig af planlægning af opgaver, overvåge dem og re-udfører de mislykkede opgaver.

Bemærk : Commodity hardware er en betegnelse for overkommelige enheder, der er generelt kompatible med andre sådanne anordninger.

============================================= ============================================== Buy best TechAlpine Books on Amazon
============================================== ---------------------------------------------------------------- electrician ct chestnutelectric
error

Enjoy this blog? Please spread the word :)

Follow by Email
LinkedIn
LinkedIn
Share