Alguien ha querido saber si GPT-4 era capaz de explotar vulnerabilidades. Lo hizo en el 87% de los casos

Alguien ha querido saber si GPT-4 era capaz de explotar vulnerabilidades. Lo hizo en el 87% de los casos
alguien ha querido saber si gpt-4 era capaz de explotar vulnerabilidades. lo hizo en el 87% de los casos

Un grupo de investigadores de la Universidad de Illinois en Urbana-Champaign (UIUC) han publicado un estudio que nos habla del potencial de GPT-4 como herramienta para ciberdelincuentes. Y ese potencial es enorme.


Vulnerabilidades a mĂ­. Los LLM, apuntan estos investigadores, se han vuelto cada vez mĂĄs potentes tanto para casos de uso benignos como para otros maliciosos. Para demostrar esto Ășltimo recolectaron 15 vulnerabilidades de dĂ­a uno incluyendo algunas calificadas de crĂ­ticas. GPT-4 fue capaz de explotar el 87% de estas vulnerabilidades.


Chatbots para el mal. Este mismo grupo de investigadores ya mostrĂł en el pasado cĂłmo los LLMs se pueden usar para automatizar ataques a sitios web, al menos en entornos aislados. Daniel Kang, uno de los miembros del equipo, explicĂł en The Register cĂłmo GPT-4 puede "llevar a cabo de forma autĂłnoma los pasos para realizar ciertos exploits que los escĂĄneres de vulnerabilidades de cĂłdigo abierto no pueden encontrar".


Seguridad por oscuridad. Si no se ofrecĂ­an detalles adicionales sobre la vulnerabilidad, algo tĂ­pico de los CVE (Common Vulnerabilities and Exposures), el rendimiento de GPT-4 bajaba del 87% al 7%, y eso planteaba la pregunta de si serĂ­a efectivo limitar los detalles disponibles en los CVE y no hacerlos pĂșblicos. Para Kang eso no sirve de mucho: "personalmente, no creo que la seguridad a travĂ©s de la oscuridad sea sostenible, que parece ser la filosofĂ­a predominante entre los investigadores de seguridad".


Coste ínfimo. Los investigadores también quisieron comprobar cuål sería el coste a nivel de cómputo de usar un agente de IA con un modelo como GPT-4 para crear un exploit a partir de un CVE, y su conclusión fue muy reveladora. El coste medio por exploit fue de 8,80 dólares, casi tres veces menos de lo que teóricamente costaría contratar a un desarrollador humano del åmbito del pentesting para investigar esos CVEs y tratar de desarrollar un CVE durante 30 minutos.


Prompts secretos (por ahora). OpenAI, desarrolladores de GPT-4, pidieron a los responsables del estudio que no revelaran los prompt utilizados para el experimento. El agente de cĂłdigo usado tenĂ­a 91 lĂ­neas de cĂłdigo y un prompt de 1.056 tokens. La peticiĂłn ha sido respetada, pero los investigadores indican en el estudio que se la ofrecerĂĄn a quienes la pidan. Lo que no estĂĄ claro es que sigan funcionando: en OpenAI probablemente hayan usado esa informaciĂłn para pulir su chatbot y evitar este tipo de malos usos.


Imagen Ed Hardie


En este blog El AI Pin ha llegado a sus primeros usuarios. Y sus conclusiones no son nada esperanzadoras


No hay comentarios.:

Con tecnologĂ­a de Blogger.