TECNO-VIRAL

Los modelos de Inteligencia Artificial como GPT pueden realizar ciberataques de forma autónoma

Un reciente estudio realizado por un equipo de investigadores se enfocó en los Modelos de Lenguaje Grande (LLM), como el GPT-4, revelando su capacidad para explotar vulnerabilidades de un día, lo que plantea serias preocupaciones en términos de seguridad cibernética.

Las herramientas de Inteligencia Artificial generativa, ya utilizadas por millones en todo el mundo, están bajo escrutinio por sus riesgos potenciales. Desde redactar correos electrónicos fraudulentos hasta hackear contraseñas, los investigadores investigan cómo los ciberdelincuentes podrían aprovechar estas tecnologías.

naranja X

Un grupo de investigadores de la Universidad de Illinois Urbana-Champaign (UIUC) llevó a cabo pruebas para evaluar cómo distintos LLM pueden explotar vulnerabilidades de ciberseguridad. Descubrieron que estos pueden aprovechar vulnerabilidades de un día en sistemas del mundo real, con una efectividad del 87%.

El estudio señala que, aunque el GPT-4 tuvo un alto rendimiento, necesitó descripciones detalladas de las vulnerabilidades para explotarlas de manera eficaz. Sin embargo, el costo y la eficiencia favorecen a los LLM sobre el trabajo humano: mientras que un LLM cuesta alrededor de 9 dólares por exploit, un experto en ciberseguridad puede costar 50 dólares por hora y tardar 30 minutos por vulnerabilidad. Además, los LLM son fácilmente escalables, lo que los hace potencialmente más efectivos que los piratas informáticos humanos.

LEER: Accidente vial en Maipú y Argerich: motociclista con lesiones graves

Artículos relacionados

Volver al botón superior