Was sind die Besten Big Data Security & Datenschutz Herausforderungen?

"Big Data" besteht eigentlich aus der riesigen Datenmengen über jede Person auf der Erde gesammelt und ihre Umgebung. Diese Daten werden von verschiedenen Organisationen gesammelten, als auch Unternehmen und von der Regierung. Die erzeugten Daten ist extrem groß und zu erwarten, auch alle zwei Jahre verdoppeln. Das bedeutet, dass, wenn die gesamten Daten erzeugt in 2012 ist 2500 Exabyte, dann erzeugt die gesamten Daten in 2020 wird über 40,000 Exabyte! Solche Daten gesammelt, wird auf verschiedene Weise zur Verbesserung der Kundenbetreuung verwendet. Aber, die große Mengen an Daten erzeugt präsentieren viele neue Probleme für die Daten Wissenschaftler, insbesondere im Hinblick auf die Privatsphäre.

So, die Cloud Security Alliance, eine gemeinnützige Organisation, die eine sichere Cloud-Computing-Praktiken fördert, sah sich um, um die wichtigsten Sicherheits- und Datenschutzprobleme feststellen, dass große Daten Gesichter.

Wie wirken sich diese Probleme auftreten?

Nur die riesigen Datenmengen sind selbst nicht die Ursache der Privatsphäre und Sicherheitsfragen. Die kontinuierliche Datenstreaming, große Cloud-basierten Datenspeichermethoden, groß angelegte Migration von Daten von einem Cloud-Speicher zu einem anderen, die verschiedenen Arten von Datenformaten und verschiedenen Arten von Quellen alle haben ihre eigenen Probleme und Lücken.

Große Datensammlung ist nicht eine sehr neue Sache, wie es seit vielen Jahrzehnten gesammelten. Jedoch, Der Hauptunterschied besteht darin, dass frühere, nur große Organisationen könnten die Daten aufgrund der enormen Kosten sammeln inbegriffen, aber jetzt kann nahezu jede Organisation Daten einfach erfassen und sie für verschiedene Zwecke verwenden. Die preiswerte neue Cloud-basierte Datenerhebungstechniken, zusammen mit den leistungsfähigen Datenverarbeitungs-Software-Frameworks wie Hadoop, ermöglichen sie große Datenmengen auf einfache Weise Mine und Prozess. Als Ergebnis, viele Sicherheitskompromiß Herausforderungen haben sich mit der hohen Integrationsgrad der großen Daten und Cloud-basierten Datenspeicher angekommen.

Die heutigen Sicherheitsanwendungen sind für die Sicherung der kleine bis mittlere Datenmengen ausgelegt, so, sie können nicht so große Mengen von Daten zu schützen. Also, Sie werden nach statischen Daten entworfen, so können sie nicht dynamische Daten verarbeiten entweder. Eine Standard-Anomalie-Erkennung Suche würde die Daten nicht in der Lage sein, alle effektiv abzudecken. Also, die kontinuierlich Streaming-Daten braucht Sicherheit die ganze Zeit, während Streaming.

Die zehn größten große Datensicherheit und Datenschutzprobleme

Um eine Liste der Top-Ten große Datensicherheit und Datenschutz Herausforderungen machen, die CSA (Cloud Security Alliance) Big Data Forschung Arbeitsgruppe gefunden zu diesen Herausforderungen aus.

Die Sicherung von Transaktionsprotokollen und Daten

Häufig, die Transaktionsprotokolle und andere sensible Daten in Speichermedium haben mehrere Ebenen gespeichert. Aber das ist nicht genug. Die Unternehmen müssen auch diese Lagerung vor unbefugtem Zugriff zu schützen und müssen auch sicherstellen, dass sie jederzeit verfügbar sind.

Sichern Berechnungen und andere in verteilten Frameworks getan Prozesse

Dies bezieht sich eigentlich auf die Sicherheit der Rechen- und Verarbeitungselemente eines verteilten Rahmen wie die MapReduce-Funktion von Hadoop. Zwei Hauptpunkte sind die Sicherheit der "Mapper" brechen die Daten nach unten und Datenlöschung Fähigkeiten.

Validierung und Filterung von End-Point-Eingänge

Endpunkte sind ein wichtiger Bestandteil jeder großen Datensammlung. Sie stellen Eingabedaten zur Speicherung, Verarbeitung und andere wichtige Werke. So, es ist notwendig, dass nur authentische Endpunkte verwendet werden, um sicherzustellen,. Jedes Netzwerk sollte von bösartigen Endpunkten frei sein.

Die Gewährleistung von Sicherheit und Monitoring-Daten in Echtzeit

Am besten ist es, dass alle Sicherheitskontrollen und Überwachung in Echtzeit erfolgen soll, oder zumindest nahezu in Echtzeit. Unglücklicherweise, die meisten der traditionellen Plattformen sind nicht in der Lage dies aufgrund der großen Datenmengen zu tun erzeugten.

Absichern der Kommunikation und Verschlüsselung von Zugangskontrollmethoden

Eine einfache Methode, um Daten zu sichern, ist die Speicherplattform dieser Daten zu sichern,. Jedoch, die Anwendung, die die Daten-Speicherplattform sichert ist oft ziemlich anfällig selbst. So, die Zugriffsmethoden müssen stark verschlüsselt werden.

Herkunft der Daten

Der Ursprung der Daten ist sehr wichtig ist, es ermöglicht, die Daten zu klassifizieren. Der Ursprung kann genau durch die richtige Authentifizierung herausgefunden werden, Validierung und durch die Zugriffskontrollen gewähren.

Granulare Zugriffskontrolle

Eine leistungsfähige Authentifizierungsmethode und Mandatory Access Control ist die wichtigste Voraussetzung für den gestaffelten Zugriff von großen Datenspeicher von NoSQL-Datenbanken oder Hadoop Distributed File System.

Granular Revisions

Regelmäßige Revision ist auch sehr notwendig, zusammen mit kontinuierlichen Überwachung der Daten. Die korrekte Analyse der verschiedenen Arten von Protokollen können erstellt werden, sehr vorteilhaft und diese Information kann verwendet werden, um alle Arten von Angriffen und Spionage zu erkennen.

Skalierbarkeit und Sicherheit von Daten, Analysen und Bergbau

Big Data Analytics kann sehr problematisch in dem Sinne sein, dass eine kleine Datenleck oder Plattform Schlupfloch in einem großen Verlust von Daten führen kann.

Sicherung verschiedener Arten von nicht-relationale Datenquellen

NoSQL und andere Arten von Datenspeichern haben viele Lücken, die viele Sicherheitsprobleme schaffen. Diese Lücken sind die mangelnde Fähigkeit, Daten zu verschlüsseln, wenn es gestreamt oder gespeichert, während des Tagging oder die Protokollierung von Daten oder während der Einteilung in verschiedene Gruppen.

Fazit

Wie jedes fortschrittliche Konzept einige Lücken haben. Big Daten hat auch einige in Form von Privatsphäre und Sicherheitsfragen. Big-Daten können nur gesichert werden, indem man alle Komponenten davon Sicherungs. Wie groß Daten ist riesig groß, viele leistungsfähige Lösungen müssen eingeführt werden, um jeden Teil der Infrastruktur zu sichern, beteiligt. Datenspeicher muss sichergestellt werden, sichergestellt, dass es keine Lecks darin. Also, Echtzeitschutz muss bei der ersten Erhebung von Daten aktiviert werden. All dies stellt sicher, dass die Privatsphäre der Verbraucher aufrechterhalten wird.

 

Stichworte:
============================================= ============================================== Buy best TechAlpine Books on Amazon
============================================== ---------------------------------------------------------------- electrician ct chestnutelectric
error

Enjoy this blog? Please spread the word :)

Follow by Email
LinkedIn
LinkedIn
Share