
Recientemente se han descubierto que más de 100 modelos maliciosos de inteligencia artificial (IA) y aprendizaje automático (ML) están presentes en la plataforma de Hugging Face. Estos modelos representan una amenaza significativa, ya que pueden ejecutar código malicioso al cargar archivos pickle, permitiendo a los atacantes tomar el control de las máquinas comprometidas.
El riesgo es alto ya que estos modelos se camuflan como legítimos y los usuarios pueden ejecutarlos en sus máquinas. Permitiendo a los atacantes obtener un acceso a la terminal en los equipos comprometidos. Este tipo de ataque, conocido como ejecución remota de código (RCE), usa archivos pickle maliciosos como vector de ataque, lo que afecta a los usuarios de plataformas como Hugging Face donde se encuentran alojados.
Para mitigar el riesgo de ser comprometido se aconseja revisar detenidamente los modelos descargados antes de su implementación y utilizar soluciones de seguridad capaces de detectar y bloquear archivos maliciosos. Evitando descargar los modelos de fuentes desconocidas.
Estos hallazgos resaltan los peligros asociados con los repositorios de código abierto y la necesidad de conciencia sobre la seguridad en el desarrollo y uso de modelos de IA y ML. Un problema que no es nuevo y ya se ha visto en otros repositorios como PyPI.
Imagen de Michael Gaida en Pixabay
Deja una respuesta