Logo Computerhoy.com

Edward Snowden usó una araña web para "vaciar" la NSA

Edward Snowden usó un web crawler para extraer los documentos de la NSA
Los web crawlers o arañas webs son programas muy comunes que hacen copias de páginas webs recorriendo todos sus enlacesSnowden sólo tuvo que introducir las contraseñas para hacer copia de todoNadie en la NSA detectó la copia masiva de datos, porque no existían alarmas internas

Si pensabas que Edward Snowden utilizó complicadísimas herramientas de hacker para extraer todos los documentos de la NSA, y sofisticados métodos de espionaje para escapar sin ser visto, ponle freno a tu imaginación. Esto no es una película de Hollywood.

Dicen que, casi siempre, la realidad supera a la ficción. No es el caso.

Una simple araña web le sirvió a Edward Snowden para extraer cientos de miles de documentos y ficheros de los ordenadores de la NSA.

Un web crawler o araña web es un sencillo software que rastrea todos los enlaces de una pagina para hacer una copia exacta. Los usan todos los programas que realizan copias de seguridad de páginas de Internet. Hay docenas diferentes, muchos de ellos gratuitos. Casi todos funcionan automáticamente: le dices la web que quieres copiar, y ellos se encargan de todo.

Oficiales de inteligencia anónimos del gobierno americano han contado al periódico New York Timescómo extrajoEdward Snowdenlos documentos de la NSA

Edward Snowden

Según ellos mismos reconocen, Snowden utilizó software sencillo de conseguir. No están seguros de si usó un web crawler propio creado por él, pero funcionaba igual que el popular Googlebot. Tan sólo tuvo que dar ciertos parámetros para decirle lo que quería copiar, e introducir las claves que poseía en las webs que pedían contraseña, para recopilar alrededor de 1.7 millones de ficheros.

Los oficiales afirman que, posiblemente, además de sus claves también usó las de algún colega o supervisor.

Edward Snowden, candidato al Premio Nobel de la Paz 2014

Se trata de un sistema nada sofisticado, y fácilmente detectable. Además ellos mismos reconocen que los web crawlers no se usan en la NSA, razón de más para detectarlos cuando uno se mueve por la red. Cualquier administrador de red puede ver enseguida que alguien está moviendo masivamente datos de un dato a otro, especialmente si se trata de un bot (un software automático).

Pero al parecer, aunque la NSA gasta miles de millones en seguridad para que espías extranjeros no entren en su casa, dentro de ella la seguridad es nula. Cero. Nada. ¿No contemplaban el hecho de que alguien podría ser sobornado, o ser un agente doble, o simplemente tener conciencia ética como Snowden, para extraer los datos desde dentro?

Los oficiales se excusan en la entrevista diciendo que estaban actualizando la seguridad, pero las instalaciones de Hawaii eran las últimas de la lista y aún no la tenían implementada.

Sin embargo, hay que recordar que el incidente de Snowden se produjo tres años después que el filtrado de datos  de WikiLeaks, en donde un soldado también extrajo información secreta. ¿En tres años no habían implantado alarmas internas?

A través de sus abogados, Edward Snowdenha respondido a estas revelaciones, sin confirmar que fue así como llevó a cabo la extracción de documentos:

"Resulta irónico que los oficiales estén dando información privilegiada a los periodistas en un esfuerzo para desacreditarme por dar información privilegiada a los periodistas. La diferencia es que yo lo hice para informar a la opinión pública sobre las acciones del gobierno, y ellos lo hacen para desinformar a la opinión pública sobre mí".

Claro como el agua...

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.