Hugging Face, una plataforma de código abierto para modelos de IA y ML, sufrió recientemente una brecha de seguridad relacionada con modelos maliciosos que contenían malware incrustado. Una empresa de investigación en ciberseguridad, ReversingLabs, identificó estas amenazas, que utilizaban la serialización de archivos Pickle para distribuir software dañino de forma […]
Es cuestión de tiempo que los LLM pongan en marcha los ataques a la cadena de suministro
Criminales están cada vez más aprovechando modelos de lenguaje grande (LLM) existentes para ciberataques, principalmente al robar credenciales para facilitar tácticas de ingeniería social. Este cambio sugiere un mayor riesgo de ataques en la cadena de suministro impulsados por el spear phishing generado por LLM, que se espera que alcance […]
Bad Likert Judge: Una novedosa técnica multiturno para burlar los LLM
La nueva investigación de la Unidad 42 sobre LLMs explora una técnica que implica el uso de la escala Likert para evaluar la nocividad de las respuestas generadas por la IA. Esta técnica tiene como objetivo eludir las barreras de protección diseñadas para evitar respuestas dañinas, aumentando la tasa de […]