Jaké jsou top Big Data Security & Soukromí Výzvy?

"Big Data" ve skutečnosti skládá z velkého množství dat shromážděných okolo každého člověka na Zemi a jejich okolí. Tato data se shromažďují různými organizacemi, společnosti a vládou, jakož. Data generované je mimořádně velký a očekává se, že dokonce zdvojnásobit každé dva roky. To znamená, že když celkový počet údajů získaných v 2012 je 2500 exabajtů, pak celkový údaji získanými 2020 bude o 40,000 exabajtů! Tyto údaje shromažďovány, je používán různými způsoby ke zlepšení služeb péče o zákazníky. Ale, obrovské množství dat generovaných se představí mnoho nových problémů pro datové vědce, a to zejména s ohledem na ochranu soukromí.

So, Cloud Security Alliance, nezisková organizace, která podporuje výpočetní postupy bezpečný cloud, se rozhlédl zjistit hlavní zabezpečení a zachování soukromí, že velké datové tváře.

Jak se tyto problémy vznikají?

Jen obrovské množství dat samy o sobě nejsou příčinou ochrany osobních údajů a bezpečnostních otázkách. Kontinuální streamování dat, Velké metody pro ukládání dat cloud-based, rozsáhlé stěhování dat z jednoho mraku skladu do jiného, různé druhy datových formátů a různé druhy zdrojů, všechny mají své vlastní mezery a problémy.

Big sběr dat není příliš nová věc, protože byla odebrána po mnoho desetiletí. However, Hlavním rozdílem je, že dřívější, pouze velké organizace by mohly shromažďovat data z důvodu obrovských nákladů zahrnutých, ale nyní téměř každá organizace může shromažďovat data snadno a používat jej pro různé účely. Tyto levné nové techniky sběru dat cloud-based, spolu s výkonnými zpracování dat framework, jako je Hadoop, jsou jim umožňuje snadno důl a zpracování velkých objemů dat. Jako výsledek, velké množství bezpečnostních-kompromisů výzvy přišli s integrací ve velkém měřítku zpracování velkých objemů dat a ukládání dat cloud-based.

Předložené žádosti o den zabezpečení jsou navrženy pro zajištění malé až střední množství dat, tedy, nemohou chránit takové obrovské množství dat. Also, jsou navrženy v souladu s statických dat, takže nemohou zvládnout dynamické údaje buď. Standardní vyhledávání detekce anomálií by nebyl schopen účinně pokrýt všechna data. Also, kontinuálně streamování dat potřebuje zabezpečení po celou dobu při streamování.

Deset největších výzev velká zabezpečení dat a soukromí

Chcete-li vytvořit seznam deseti největších velkých zabezpečení dat a ochrany osobních údajů výzvy, CSA (Cloud Security Alliance) Big výzkumná data Pracovní skupina zjistila, o těchto výzvách.

Zajištění protokolů transakcí a dat

Často, protokoly transakcí a jiná taková citlivá data jsou uložena v paměťovém médiu mít více vrstev. Ale to není dost. Společnosti mají také k ochraně těchto skladování před neoprávněným přístupem a také musí zajistit, aby byly k dispozici po celou dobu.

Zabezpečení výpočty a další procesy udělal v distribuovaných rámcích

To vlastně odkazuje k bezpečnosti výpočetních a upravu prvků distribuované rámce, jako je funkce MapReduce z Hadoop. Dva hlavní problémy jsou bezpečnost "mappers" rozdělení dat dolů a schopností dat dezinfekci.

Validace a filtrování koncových bodů vstupy

Koncové body jsou hlavní součástí každé velké sběru dat. Poskytují vstupní data pro skladování, zpracování a jiné důležité práce. So, Je nezbytné zajistit, aby pouze autentické koncové body jsou používány. Každá síť by měla být bez škodlivých koncových bodů.

Poskytování údajů o bezpečnosti a monitorování v reálném čase

Nejlepší je, že všechny bezpečnostní kontroly a monitorování by mělo dojít v reálném čase, nebo alespoň téměř v reálném čase. Bohužel, většina z tradičních platformy jsou schopni to udělat kvůli velkému množství dat generovaných.

Zajištění komunikace a šifrování pro řízení přístupu metod

Snadný způsob pro zabezpečení dat je k zabezpečení skladovací platformy těchto údajů. However, aplikace, která zabezpečuje platformu pro ukládání dat je často docela zranitelný sami. So, že přístupové metody musí být silně šifrována.

Provenience dat

Původ dat je velmi důležité, je, že umožňuje klasifikaci údaje. Původ může být přesně zjistit správnou funkci ověřování, validace a udělením řízení přístupu.

Granulární řízení přístupu

Výkonný metoda ověřování a Povinné Access Control je hlavním požadavkem pro zrnitá přístup velkých datových skladů ze strany NoSQL databází nebo Hadoop Distributed File System.

Granular audit

Pravidelný audit je také velmi nutné spolu s kontinuálním sledováním dat. Správná analýza různých druhů kulatiny vytvořených může být velmi prospěšné, a tyto informace mohou být použity pro detekci všech druhů útoků a špionáž.

Škálovatelnost a soukromí datové analytiky a dolování

Zpracování velkých objemů dat pro analýzu může být v tom smyslu, velmi problematické, že malý únik dat nebo platforma mezera může mít za následek velké ztráty dat.

Zajištění různé druhy non-relační zdroje dat

NoSQL a jiné takové typy datových skladů mají mnoho mezer, které vytvářejí mnoho bezpečnostních problémů. Tyto nedostatky zahrnují neschopnost k šifrování dat, když je v streamovaných či uloženy, Během značkování nebo protokolování dat nebo při zařazení do různých skupin.

Závěr

Jako každý pokročilém konceptu nějaké mezery. Big Data má i některé v podobě ochrany osobních údajů a bezpečnostních otázkách. Zpracování velkých objemů dat mohou být zajištěny pouze zajištěním všech složek něj. Jako velká data jsou obrovské velikosti, mnoho silných řešení musí být zavedeny, aby byla zajištěna každou část infrastruktury zapojených. Datové sklady musí být zabezpečeny za to, že tam nejsou žádné netěsnosti v něm. Also, Ochrana v reálném čase musí být povolen během počátečního sběru dat. To vše zajistí, že soukromí spotřebitele je udržována.

 

Tagged on:
============================================= ============================================== Buy best TechAlpine Books on Amazon
============================================== ---------------------------------------------------------------- electrician ct chestnutelectric
error

Enjoy this blog? Please spread the word :)

Follow by Email
LinkedIn
LinkedIn
Share