Descubiertos modelos ML maliciosos en la plataforma Hugging Face

Investigadores de ciberseguridad han descubierto dos modelos maliciosos de aprendizaje automático (ML) en Hugging Face que aprovechaban una técnica inusual de archivos pickle «rotos» para evadir la detección.

«Los archivos pickle extraídos de los archivos PyTorch mencionados revelaron el contenido Python malicioso al principio del archivo», explicó Karlo Zanki, investigador de ReversingLabs, en un informe. «En ambos casos, la carga útil maliciosa era un típico shell inverso consciente de la plataforma que se conecta a una dirección IP codificada».

El método se ha bautizado como nullifAI, ya que supone un claro intento de eludir las medidas de protección existentes para identificar modelos maliciosos. A continuación se enumeran los repositorios de Hugging Face.

  • glockr1/ballr7
  • who-r-u0000/0000000000000000000000000000000000000

Seguir leyendo [EN]

Filed under
Ciberseguridad
Previous Next
For this post, the comments have been closed.