La universidad de Kioto sufrió el mes pasado una pérdida de datos, nada más y nada menos, que de 34 millones de documentos pertenecientes a varios grupos de investigación de la propia universidad.
Estamos acostumbrados a leer acerca de fugas de información muy grandes debido a fallos de seguridad, pero esto es diferente, hablamos de perder información. Estoy seguro que si haces memoria no recordarás una pérdida de datos tan grande como ésta en mucho tiempo. Y es que es raro que ocurra una situación como la que ha vivido la universidad nipona, que en mi opinión se debe a varios factores.
El problema lo ha provocado una actualización en su software de backup, según ha publicado la empresa responsable de éste, Hewlett Packard Enterprise (HPE), en un comunicado. En la publicación la empresa pide disculpas por lo sucedido y asume el 100% de la culpa del incidente. El fallo se ha debido al aplicar un parche al script que se encarga de realizar el respaldo de los datos mientras estaba en ejecución. Esto ha provocado que se creasen variables erráticas en el sistema que, a su vez, han provocado la destrucción el origen de los datos a respaldar. Sin duda un desastre.

Según las últimas novedades que ha publicado la universidad al respecto, solo han podido recuperar 28TB de los 77TB.
A mi modo de ver las cosas y a pesar de que HPE haya asumido el 100% de la culpa veo varios fallos y no solo por parte de HPE. En primer lugar, el fallo más grave es no asegurarse de que el programa de backup estaba en marcha, obvio. Pero una vez que el script corrompe el origen de los datos y al backup ¿por qué no han usado una copia antigua? ¿no había?
Si el problema es la actualización, pues se vuelve a la versión anterior del script y se tira de la copia más reciente. Si no lo han podido hacer es porque la universidad no tenía bien preparadas las copias de seguridad. Una forma de mantener bien preparados los protocolos de respaldo de los datos en caso de pérdida, es con simulacros anuales de recuperación. Estos simulacros tienen dos objetivos: el primero es preparar a los técnicos para resolver este tipo de incidencias, y el segundo comprobar que las copias de seguridad que estamos haciendo son válidas.
También puedes pensar, oye lo mismo el script también ha machacado todos los backup. Pero entonces te diría que su política de salvaguardia de archivos era nefasta, puesto que no han contemplado mantener al menos una copia en otra ubicación y en un soporte diferente, tal y como te recomendé para que mantuvieras tus datos personales en una entrada anterior.
Por si te lo perdiste….
A nivel empresarial las copias de seguridad deberían almacenarse en lugares distintos, a poder ser en salas ignífugas protegidas no solo del fuego, sino también de otros factores ambientales, como la humedad. También es recomendable tener una parte de tus copias de seguridad en varios soportes.
Que no hayan podido recuperar los datos, o recuperarlos con una pérdida de datos asumible, es un síntoma de la debilidad en protocolos y medios que la universidad tenía con su información. Creo que en este caso HPE ha provocado el problema, pero la falta de controles que ha tenido la universidad de Kioto respecto al manejo y mantenimiento de los datos, ha provocado la pérdida de la información.
Sin duda es un golpe muy duro para la universidad, pero también es una lección de la que tomar nota nosotros, sobre todo si estamos a cargo de sistemas informáticos. Todo un aviso a navegantes de lo que puede pasar si no somos rigurosos con nuestros datos.