Recientemente se han descubierto que más de 100 modelos maliciosos de inteligencia artificial (IA) y aprendizaje automático (ML) están presentes en la plataforma de Hugging Face. Estos modelos representan una amenaza significativa, ya que pueden ejecutar código malicioso al cargar archivos pickle, permitiendo a los atacantes tomar el control de las máquinas comprometidas.
El riesgo es alto ya que estos modelos se camuflan como legítimos y los usuarios pueden ejecutarlos en sus máquinas. Permitiendo a los atacantes obtener un acceso a la terminal en los equipos comprometidos. Este tipo de ataque, conocido como ejecución remota de código (RCE), usa archivos pickle maliciosos como vector de ataque, lo que afecta a los usuarios de plataformas como Hugging Face donde se encuentran alojados.
Para mitigar el riesgo de ser comprometido se aconseja revisar detenidamente los modelos descargados antes de su implementación y utilizar soluciones de seguridad capaces de detectar y bloquear archivos maliciosos. Evitando descargar los modelos de fuentes desconocidas.
Estos hallazgos resaltan los peligros asociados con los repositorios de código abierto y la necesidad de conciencia sobre la seguridad en el desarrollo y uso de modelos de IA y ML. Un problema que no es nuevo y ya se ha visto en otros repositorios como PyPI.
Imagen de Michael Gaida en Pixabay
En la era del dato, las organizaciones se enfrentan al reto de gestionar volúmenes masivos…
En la serie Creación de una API REST con Express y TypeScript construimos una API…
Durante la Segunda Guerra Mundial, la Fuerza Aérea de Estados Unidos quería reforzar sus aviones…
En muchas situaciones —ya sea para grabar un tutorial, tomar capturas de pantalla profesionales, probar…
Imagínate en una sala con un grupo de personas, por ejemplo, en una oficina, un…
En el trabajo diario con ordenadores, es común encontrarse con tareas repetitivas: realizar copias de…
This website uses cookies.