Recientemente se han descubierto que más de 100 modelos maliciosos de inteligencia artificial (IA) y aprendizaje automático (ML) están presentes en la plataforma de Hugging Face. Estos modelos representan una amenaza significativa, ya que pueden ejecutar código malicioso al cargar archivos pickle, permitiendo a los atacantes tomar el control de las máquinas comprometidas.
El riesgo es alto ya que estos modelos se camuflan como legítimos y los usuarios pueden ejecutarlos en sus máquinas. Permitiendo a los atacantes obtener un acceso a la terminal en los equipos comprometidos. Este tipo de ataque, conocido como ejecución remota de código (RCE), usa archivos pickle maliciosos como vector de ataque, lo que afecta a los usuarios de plataformas como Hugging Face donde se encuentran alojados.
Para mitigar el riesgo de ser comprometido se aconseja revisar detenidamente los modelos descargados antes de su implementación y utilizar soluciones de seguridad capaces de detectar y bloquear archivos maliciosos. Evitando descargar los modelos de fuentes desconocidas.
Estos hallazgos resaltan los peligros asociados con los repositorios de código abierto y la necesidad de conciencia sobre la seguridad en el desarrollo y uso de modelos de IA y ML. Un problema que no es nuevo y ya se ha visto en otros repositorios como PyPI.
Imagen de Michael Gaida en Pixabay
Calcular adecuadamente el tamaño de la muestra es una parte esencial en el diseño de…
Hoy en día, cuando pensamos en ciencia de datos, lo primero que nos viene a…
Ampliar el espacio de almacenamiento en un sistema Linux es una tarea habitual y crítica…
¿Sabías que puedes copiar y pegar texto, archivos o imágenes entre tu sistema operativo principal…
Hoy publicamos un nuevo video en el canal de YouTube de Analytics Lane basado en…
En el canal de YouTube de Analytics Lane hemos publicado un nuevo video donde explicamos…
This website uses cookies.