År : Behandler enorme datamengde (multi-terabyte datasett) er et stort problem i det virkelige liv projects.As størrelsen på data øker dag for dag, programmer finner det vanskelig å behandle den på en pålitelig,sikret og feiltolerant måte.
Her kommer Hadoop Kart / Reduce framework.It hjelper å skrive søknadene lett hvilken prosess enorme mengden av data holder alle bekymringer i mind.The største fordelen er, Kart / Redusere lar parallell prosessering på store klynger av standard maskiner.
De viktigste konseptene bak Kart / Redusere er
en) Del jobben inn selvstendige oppgaver (kjent som Kart oppgaver).
b) Behandle oppgaver på en parallell måte.
c) Sortere ut av kartene og sende dem som innspill til Forminsk oppgaven (kjent som Reduser oppgaver).
Så det er i utgangspunktet parallell behandling av biter og deretter koble dem tilbake for å få slutt result.The rammeverket tar seg av å planlegge oppgaver, overvåke dem og re-utfører de mislykkede oppgaver.
Note : Standard maskiner er et begrep for rimelige enheter som er generelt kompatibel med andre slike enheter.