Quels sont les top Big Data Security & confidentialité défis?

"Big Data" comprend en fait des énormes quantités de données recueillies au sujet de chaque personne sur la Terre et de leur environnement. Ces données sont recueillies par diverses organisations, entreprises et par le gouvernement ainsi. Les données générées est extrêmement énorme et il devrait même doubler tous les deux ans. Cela signifie que si l'ensemble des données générées dans 2012 est 2500 exaoctets, puis l'ensemble des données générées dans 2020 sera d'environ 40,000 exaoctets! Ces données collectées, est utilisé de différentes façons pour l'amélioration des services de soins à la clientèle. Mais, les énormes quantités de données générées présentent de nombreux problèmes nouveaux pour les scientifiques de données, en particulier en ce qui concerne la confidentialité.

So, Cloud Security Alliance, un organisme sans but lucratif qui promeut des pratiques de cloud computing en toute sécurité, regarda autour de découvrir les grands défis de sécurité et de confidentialité que les grandes faces de données.

Comment ces problèmes se posent?

Seules les grandes quantités de données elles-mêmes ne sont pas la cause des problèmes de confidentialité et de sécurité. Le flux continu de données, grandes méthodes de stockage de données en nuage, la migration à grande échelle des données d'un stockage en nuage à l'autre, les différents types de formats de données et les différents types de sources ont tous leurs propres lacunes et problèmes.

collection Big données ne sont pas une chose très nouvelle, comme il a été collecté depuis de nombreuses décennies. Cependant, la principale différence est que plus tôt, seules les grandes organisations peuvent recueillir des données en raison des énormes dépenses incluses, mais maintenant presque chaque organisation peut recueillir des données facilement et l'utiliser à des fins différentes. Les nouvelles techniques de collecte de données en nuage à bas prix, ainsi que les cadres de logiciels de traitement de données puissantes comme Hadoop, sont leur permettant de facilement extraire et à traiter les données de grandes. As a result, de nombreux problèmes de sécurité compromettant sont arrivés avec l'intégration à grande échelle des grandes données et le stockage de données en nuage.

Les applications actuelles de sécurité de jour sont conçus pour fixer la petite à quantité moyenne de données, Ainsi, ils ne peuvent pas protéger ces énormes quantités de données. Also, Ils sont conçus en fonction de données statiques, de sorte qu'ils ne peuvent pas gérer les données dynamiques soit. Une recherche de détection d'anomalie norme ne serait pas en mesure de couvrir toutes les données de manière efficace. Also, les données en streaming en continu a besoin de sécurité tout le temps lors de la diffusion.

Les dix plus grandes sécurité des données et de confidentialité grand défis

Pour faire une liste des dix grands défis de sécurité des données et de confidentialité, le CSA (Nuage Security Alliance) Big groupe de travail de recherche de données a découvert ces défis.

Sécurisation des journaux et des données de transaction

Souvent, les journaux de transactions et autres données sensibles sont stockées dans un milieu de stockage ont plusieurs niveaux. Mais cela ne suffit pas. Les entreprises doivent également sauvegarder ces stockage contre l'accès non autorisé et aussi de veiller à ce qu'ils soient disponibles en tout temps.

calculs Sécurisation et d'autres processus réalisés dans les cadres distribués

Cela fait référence à la sécurité des éléments de calcul et de traitement d'un cadre distribué comme la fonction de MapReduce Hadoop. Deux questions principales sont la sécurité des «cartographes» brisant les données vers le bas et les capacités de désinfection de données.

Validation et filtrage des entrées de point final

Endpoints sont une partie importante de toute grande collection de données. Ils fournissent des données d'entrée pour le stockage, le traitement et d'autres travaux importants. So, il est nécessaire de s'assurer que seuls les points d'extrémité authentiques sont utilisés. Chaque réseau doit être exempt de terminaux malveillants.

Fournir des données de sécurité et de surveillance en temps réel

Il est préférable que tous les contrôles et la surveillance de sécurité doivent avoir lieu en temps réel, ou au moins dans le temps presque réel. Malheureusement, la plupart des plates-formes traditionnelles sont incapables de le faire en raison des grandes quantités de données générées.

Sécurisation des communications et le chiffrement des méthodes de contrôle d'accès

Une méthode simple pour sécuriser les données est de sécuriser la plate-forme de stockage de ces données. Cependant, l'application qui fixe la plate-forme de stockage de données est souvent très vulnérables eux-mêmes. So, les méthodes d'accès doivent être fortement cryptée.

Provenance des données

L'origine des données est très important est qu'il permet de classer les données. L'origine peut être trouvé avec précision par l'authentification correcte, validation et en accordant les contrôles d'accès.

contrôle d'accès granulaires

Une méthode d'authentification puissante et contrôle d'accès obligatoire est l'exigence principale pour l'accès à grain fin des grands magasins de données des bases de données NoSQL ou système de fichiers distribués Hadoop.

audit Granular

l'audit régulier est également très nécessaire ainsi que la surveillance continue des données. Une analyse correcte des différents types de journaux créés peut être très bénéfique et cette information peut être utilisée pour détecter toutes sortes d'attaques et d'espionnage.

Evolutivité et la confidentialité des analyses de données et l'exploitation minière

Big L'analyse des données peut être très problématique dans le sens où une petite fuite de données ou la plate-forme échappatoire peut entraîner une grande perte de données.

Sécurisation de différents types de sources de données non relationnelles

NoSQL et d'autres types de magasins de données ont de nombreuses lacunes qui créent de nombreux problèmes de sécurité. Ces lacunes sont le manque de capacité à chiffrer les données quand il est diffusé ou stocké, pendant le marquage ou l'enregistrement des données ou lors de la classification en différents groupes.

Conclusion

Comme chaque concept avancé ont des lacunes. Big données a également une certaine sous la forme de questions de confidentialité et de sécurité. Grands volumes de données peuvent être fixés uniquement en obtenant tous les composants de celui-ci. Aussi grand des données est énorme en taille, de nombreuses solutions puissantes doivent être introduites afin de garantir à chaque partie de l'infrastructure en cause. stockages de données doivent être fixées pour assurer qu'il n'y a pas de fuites dans ce. Also, protection en temps réel doit être activé lors de la collecte initiale des données. Tout cela fera en sorte que la vie privée du consommateur est maintenue.

 

Tagged on:
============================================= ============================================== Buy best TechAlpine Books on Amazon
============================================== ---------------------------------------------------------------- electrician ct chestnutelectric
error

Enjoy this blog? Please spread the word :)

Follow by Email
LinkedIn
LinkedIn
Share