Alguien ha querido saber si GPT-4 era capaz de explotar vulnerabilidades. Lo hizo en el 87% de los casos
Un grupo de investigadores de la Universidad de Illinois en Urbana-Champaign (UIUC) han publicado un estudio que nos habla del potencial de GPT-4 como herramienta para ciberdelincuentes. Y ese potencial es enorme.
Vulnerabilidades a mĂ. Los LLM, apuntan estos investigadores, se han vuelto cada vez mĂĄs potentes tanto para casos de uso benignos como para otros maliciosos. Para demostrar esto Ășltimo recolectaron 15 vulnerabilidades de dĂa uno incluyendo algunas calificadas de crĂticas. GPT-4 fue capaz de explotar el 87% de estas vulnerabilidades.
Chatbots para el mal. Este mismo grupo de investigadores ya mostrĂł en el pasado cĂłmo los LLMs se pueden usar para automatizar ataques a sitios web, al menos en entornos aislados. Daniel Kang, uno de los miembros del equipo, explicĂł en The Register cĂłmo GPT-4 puede "llevar a cabo de forma autĂłnoma los pasos para realizar ciertos exploits que los escĂĄneres de vulnerabilidades de cĂłdigo abierto no pueden encontrar".
Seguridad por oscuridad. Si no se ofrecĂan detalles adicionales sobre la vulnerabilidad, algo tĂpico de los CVE (Common Vulnerabilities and Exposures), el rendimiento de GPT-4 bajaba del 87% al 7%, y eso planteaba la pregunta de si serĂa efectivo limitar los detalles disponibles en los CVE y no hacerlos pĂșblicos. Para Kang eso no sirve de mucho: "personalmente, no creo que la seguridad a travĂ©s de la oscuridad sea sostenible, que parece ser la filosofĂa predominante entre los investigadores de seguridad".
Coste Ănfimo. Los investigadores tambiĂ©n quisieron comprobar cuĂĄl serĂa el coste a nivel de cĂłmputo de usar un agente de IA con un modelo como GPT-4 para crear un exploit a partir de un CVE, y su conclusiĂłn fue muy reveladora. El coste medio por exploit fue de 8,80 dĂłlares, casi tres veces menos de lo que teĂłricamente costarĂa contratar a un desarrollador humano del ĂĄmbito del pentesting para investigar esos CVEs y tratar de desarrollar un CVE durante 30 minutos.
Prompts secretos (por ahora). OpenAI, desarrolladores de GPT-4, pidieron a los responsables del estudio que no revelaran los prompt utilizados para el experimento. El agente de cĂłdigo usado tenĂa 91 lĂneas de cĂłdigo y un prompt de 1.056 tokens. La peticiĂłn ha sido respetada, pero los investigadores indican en el estudio que se la ofrecerĂĄn a quienes la pidan. Lo que no estĂĄ claro es que sigan funcionando: en OpenAI probablemente hayan usado esa informaciĂłn para pulir su chatbot y evitar este tipo de malos usos.
Imagen Ed Hardie
En este blog El AI Pin ha llegado a sus primeros usuarios. Y sus conclusiones no son nada esperanzadoras
No hay comentarios.: