Una empresa de energĂ­a solar ha demandado a Google por la IA de su buscador: se inventĂł que eran unos estafadores

Una empresa de energĂ­a solar ha demandado a Google por la IA de su buscador: se inventĂł que eran unos estafadores
una empresa de energĂ­a solar ha demandado a google por la ia de su buscador: se inventĂł que eran unos estafadores

El buscador de Google ya no es solo un buscador. Desde que Google empezĂł a integrar la funciĂłn "AI Overviews" es tambiĂ©n un chatbot con inteligencia artificial que contesta a las preguntas de los usuarios sin que tengan que hacer clic en ningĂșn enlace. El problema es que la tecnologĂ­a subyacente, los grandes modelos de lenguaje, funcionan de manera probabilĂ­stica, por lo que tienden a inventarse la respuesta cuando no tienen muy claro cĂłmo contestar.


Una mentira creĂ­ble. Esta vez, una respuesta inventada de AI Overviews puede acabar sentando a Google en el banquillo. La demandante es Wolf River Electric, una empresa de energĂ­a solar de Minnesota. Y el origen del pleito es, valga la redundancia, una demanda que nunca existiĂł.


No es la primera vez. Este tipo de error se conoce como "alucinaciĂłn", y es muy comĂșn en los modelos de lenguaje por cĂłmo van tejiendo su respuesta mediante la predicciĂłn de las siguientes palabras, a veces arrastrando el error inicial hasta convertirlo en una mentira creĂ­ble con todo tipo de ramificaciones inventadas, como en el juego del telĂ©fono escacharrado.


Cuando Google empezĂł a integrar AI Overview en el buscador, tuvo que retirarlo de algunas bĂșsquedas, en especial de recetas y nutriciĂłn, porque llegĂł a recomendar añadir pegamento a la pizza o comer una piedra al dĂ­a para mantenerse saludable.


Una respuesta por pregunta. Wolf River Electric afirma que, debido a lo que leyeron en los AI Overviews, varios clientes cancelaron sus contratos, valorados en hasta 150.000 dĂłlares. El problema es que las respuestas de AI Overviews son personalizadas: se infieren en el momento, por lo que puede variar de una consulta a otra


Eso a los abogados de Wolf River Electric no les preocupa porque saben que puede volver a ocurrir. "Esta demanda no va solo de defender la reputaciĂłn de nuestra empresa; va de defender la equidad, la verdad y la responsabilidad en la era de la inteligencia artificial", dice Nicholas Kasprowicz, asesor jurĂ­dico de la empresa.


David contra Goliat. El caso fue presentado en marzo en un tribunal estatal y acaba de ser elevado a un tribunal federal de Estados Unidos. Tal vez acabe creando jurisprudencia sobre si una empresa tecnolĂłgica debe responsabilizarse de que su IA genere y difunda desinformaciĂłn. La respuesta a esta pregunta podrĂ­a marcar un punto de inflexiĂłn para las empresas de IA, que durante mucho tiempo han intentado eludir la responsabilidad por los resultados de sus modelos de lenguaje.


Google, en su defensa, calificĂł el incidente como un percance inofensivo. "La gran mayorĂ­a de nuestras AI Overviews son precisas y Ăștiles, pero como con cualquier nueva tecnologĂ­a, pueden ocurrir errores", dice un portavoz de la compañía. Google dice haber actuado rĂĄpidamente para solucionar el problema tan pronto como tuvieron conocimiento de Ă©l, en lĂ­nea con sus recientes esfuerzos por permitir que los usuarios corrijan los errores de la IA.


Imagen Google


En este blog La IA de Google aconseja usar pegamento para el queso de la pizza. La fuente es un comentario de Reddit de hace 11 años


No hay comentarios.:

Con tecnologĂ­a de Blogger.