Famoso hacker inserta “recuerdos falsos” en ChatGPT para robar información privada de los usuarios de OpenAI

Famoso hacker inserta “recuerdos falsos” en ChatGPT para robar información privada de los usuarios de OpenAI
famoso hacker inserta “recuerdos falsos” en chatgpt para robar información privada de los usuarios de openai

El famoso investigador y experto en ciberseguridad, Johann Rehberger, logró vulnerar los sistemas del ChatGPT. Sus acciones de hackero sirvieron para demostrar que con un simple proceso se pueden robar datos de los usuarios de OpenAI.


Pero además, también demostró que con su trabajo pudo alterar la memoria del ChatGPT, que es una de las recientes y novedosas funciones del chatbot de inteligencia artificial de la empresa de Sam Altman.


¿Cómo hizo para vulnerar el ChatGPT de OpenAI?


Es importante resaltar que el investigador hizo este trabajo para alertar a los ingenieros de OpenAI sobre la vulnerabilidad en sus sistemas. Al principio les envió un mensaje privado y lo ignoraron, por lo tanto se adentró más en en las fallas para después hacer públicos los problemas de esta IA.


Johann Rehberger instaló un simple documento de Word desde Google Drive, al chatbot del ChatGPT, con la que, en primer lugar, le hizo creer que él como usuario era una persona de 102 años, que vive en la Matrix y que la Tierra es plana.


Debido a que la memoria almacena información de los usuarios, la misma se compartió a través de otro archivo maligno que vino desde Google Drive. Así notó que el ChatGPT no tenía los escudos adecuados para no compartir información personal.


“Lo que es realmente interesante es que ahora es persistente en la memoria. La inyección de aviso insertó una memoria en el almacenamiento a largo plazo de ChatGPT. Cuando inicias una nueva conversación, en realidad sigue extrayendo los datos”, dijo el investigador en declaraciones que recoge Ars Technica.


No hay comentarios.:

Con tecnología de Blogger.