OpenAI tiene un detector de textos escritos por IA que funciona casi a la perfecci贸n. Y no quiere sacarlo al mercado

OpenAI tiene un detector de textos escritos por IA que funciona casi a la perfecci贸n. Y no quiere sacarlo al mercado
openai tiene un detector de textos escritos por ia que funciona casi a la perfecci贸n. y no quiere sacarlo al mercado

¿C贸mo sabemos que un texto ha sido generado por un modelo de inteligencia artificial? No podemos. No al menos a ciencia cierta, y quienes han intentado detectar este tipo de textos han fracasado. Hasta ahora, parece.


El detector infalible. Seg煤n fuentes cercanas a la empresa citadas en WSJ, OpenAI tiene un sistema para crear marcas de agua para textos generados por ChatGPT, adem谩s de una herramienta para detectar esas marcas. En TechCrunch un portavoz de OpenAI ha confirmado que la empresa est谩 trabajando en el m茅todo de marcas de agua descrito en el WSJ, pero el sistema presenta "complejidades" y plantea un "probable impacto en el ecosistema m谩s all谩 de OpenAI".


Una tarea hasta ahora imposible. Son varias las empresas que han lanzado herramientas de detecci贸n de textos generados por IA, pero ninguna funciona demasiado bien. OpenAI cre贸 y lanz贸 la suya propia a principios de 2023, pero acab贸 admitiendo que su nivel de precisi贸n era bajo y hasta cancel贸 y abandon贸 aquella propuesta inicial.


C贸mo funciona el nuevo detector. El mecanismo es relativamente sencillo, aunque solo funcionar铆a en ChatGPT. Lo que har铆a la compa帽铆a es hacer peque帽os cambios en la forma en la que ChatGPT selecciona las palabras que luego genera, creando as铆 una especie de marca invisible en esa escritura que luego podr铆a ser detectada por otra herramienta.


Tu estilo te delata, ChatGPT. Es decir: OpenAI obligar铆a a ChatGPT a tener un "estilo rob贸tico" de redacci贸n que luego podr铆a identificar. Los textos seguir铆an siendo de calidad, pero la elecci贸n de palabras lo delatar铆a. Es algo que de hecho ya se ha percibido en textos acad茅micos y financieros generados por modelos de IA: usan un lenguaje raruno, y eso permite detectar que han sido generados as铆.


脷til en ciertos caos, no tanto en otros. OpenAI ha editado un post de su blog publicado en mayo en el que hablaban del tema. Indican que las marcas de agua han demostrado "una alta precisi贸n e incluso eficacia frente a la manipulaci贸n localizada, como la par谩frasis", pero tambi茅n tiene problemas por ejemplo en "sistemas de traducci贸n, o al pedirle al modelo que inserte un car谩cter especial entre cada palabra para luego borrar ese car谩cter".


F谩cil de falsificar. Estos problemas hacen que seg煤n OpenAI, su herramienta y su sistema tenga un problema: es "trivial eludir" su funcionamiento si un "mal actor", como un ciberdelicuente, pretende hacerlo. La compa帽铆a no aclara en ning煤n momento si acabar谩 lanzando la herramienta, pero parece que al menos hay un camino interesante para conseguir algo que hasta ahora parec铆a imposible. O al menos, para mitigar los malos usos o los usos prohibidos, como los que asolan al mundo acad茅mico desde la aparici贸n de ChatGPT. Quiz谩s despu茅s de todo los estudiantes no puedan usar este chatbot para hacer los deberes.


En este blog Hasta ahora Microsoft y OpenAI hab铆an sido grandes aliados. Hasta ahora


No hay comentarios.:

Con tecnolog铆a de Blogger.