Es cuestión de tiempo que los LLM pongan en marcha los ataques a la cadena de suministro

Criminales están cada vez más aprovechando modelos de lenguaje grande (LLM) existentes para ciberataques, principalmente al robar credenciales para facilitar tácticas de ingeniería social. Este cambio sugiere un mayor riesgo de ataques en la cadena de suministro impulsados por el spear phishing generado por LLM, que se espera que alcance su punto máximo en 2025. Los expertos indican que aunque las tecnologías de LLM no son capaces de ataques autónomos completamente, aumentan la sofisticación de los intentos de phishing al generar mensajes personalizados que resuenan con los objetivos individuales.

La investigación indica que el fenómeno del «LLMjacking», el acceso no autorizado a LLM, está en aumento. Los atacantes han dirigido varios servicios de IA, con la intención de revender el acceso en lugar de extraer datos confidenciales, lo que genera costos significativos para las víctimas. Los casos de acceso comprometido han demostrado que los delincuentes pueden generar mensajes dirigidos que saltan las métodos de detección tradicionales, dificultando las defensas contra los intentos de phishing. Los expertos de la industria enfatizan la naturaleza crítica de la vigilancia humana para reconocer y evitar tales amenazas.

El potencial de comunicación generada por IA, incluida la clonación de voz, complica aún más el panorama de las amenazas cibernéticas. Aunque los organismos reguladores intentan mitigar estos riesgos, los expertos creen que los criminales persistirán en encontrar formas de explotar los avances en IA. La conciencia mejorada y un examen cuidadoso de los canales de comunicación son esenciales para individuos y organizaciones protegerse contra intentos sofisticados de phishing que las tecnologías de IA pueden facilitar.

Seguir leyendo [EN]