Les serveurs Hadoop non protégés présentent 5 PB de données: Shodan


Les serveurs Hadoop qui ne sont pas configurés de manière sécurisée exposent de vastes quantités de données, selon une analyse effectuée à l'aide du moteur de recherche Internet Shodan.

Une recherche Shodan a révélé près de 4 500 serveurs avec le Système de fichiers distribués Hadoop (HDFS), le stockage distribué principal utilisé par les applications Hadoop. Ces serveurs ont été révélés pour exposer 5,120 TB (5,12 PB) de données.

En comparant les déploiements de MongoDB, qui sont également connus pour exposer beaucoup de données, Shodan a trouvé 47 820 serveurs, mais seulement 25 TB de données exposées.

De tous les serveurs Hadoop qui exposent des données, 1 900 sont situés aux États-Unis et 1 426 en Chine. Le prochain sur la liste est l'Allemagne et la Corée du Sud, avec 129 et 115 serveurs, respectivement. La majorité des instances HDFS repérées par Shodan sont hébergées dans le nuage, principalement Amazon (1 059 instances) et Alibaba (507).

À la fin de l'année dernière, les chercheurs ont commencé à voir des attaques de rançon visant des bases de données MongoDB non protégées. Les attaquants ont effacé ou volé des données et ont demandé aux victimes de payer une rançon s'ils voulaient la récupérer. Ces types d'attaques ont ensuite commencé à cibler les serveurs Elasticsearch, CouchDB et Hadoop.

Selon le fondateur de Shodan John Matherly, ces attaques de rançon sont encore lancées contre les installations de Hadoop et MongoDB, et la majorité des serveurs MongoDB exposés à Internet semblent déjà compromis.

Lorsque les chercheurs ont d'abord signalé avoir vu des attaques ciblant des installations HDFS, ils ont souligné que, dans certains cas, les attaquants ont effacé …

Lire la suite (en anglais)

Note : Cet article est extrait et traduit automatiquement de flux RSS provenant de différents sites. Etant donné que ce sont des traductions automatiques, la qualité peut aller de l’acceptable au pire. Ces publications automatiques me servent à collecter suffisamment de données pour mes expérimentations avec le Deep Learning et le Framework TensorFlow.

N'oubliez pas de voter pour cet article !
1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (Pas encore de votes)
Loading...

Vous aimerez aussi...

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Font Resize
Contrast
Aller à la barre d’outils