Un padre envi贸 fotos de su hijo d撞snudo a un pediatra. Google bloque贸 sus cuentas y lo denunci贸.

un padre envi贸 fotos de su hijo d撞snudo a un pediatra. google bloque贸 sus cuentas y lo denunci贸.

En febrero de 2021, a un ni帽o le apareci贸 una infecci贸n en la ingle. Y su padre, Mark, como es normal, *le hizo una foto para envi谩rsela a su pediatra*, pues no pod铆a atender presencialmente por la pandemia. As铆, podr铆a identificar el problema y aportar posibles curas.


El final no fue del todo feliz: al ni帽o se le cur贸 la infecci贸n con antibi贸ticos gracias a un di谩gnostico hecho con lo observado en las im谩genes, pero, seg煤n cuenta The New York Times el padre acab贸 con las cuentas de Google cerradas y hasta sin n煤mero de tel茅fono (al ser usuario de Google Fi).


¿El motivo? *La compa帽铆a etiquet贸 las im谩genes como material de abuso sexual infantil*. Lo lo peor no es perder una cuenta, que por lo que dependemos de ellas hoy en d铆a ya puede ser algo muy grave, sino que, mientras tratas de ayudar a tu hijo, una compa帽铆a tecnol贸gica gigante te etiquete como criminal. En el momento del bloqueo, la compa帽铆a alegaba "violaci贸n severa de las pol铆ticas de la compa帽铆a y que pod铆a ser ilegal".Cuando la inteligencia artificial se va de las manos con los falsos positivos As铆 explicaba Apple su pol茅mico sistema.


La inteligencia artificial lleva a帽os funcionando relativamente bien para detectar ciertos contenidos desinformadores, para detectar pornograf铆a infantil, etc. Pero como siempre, hay falsos positivos y falsos negativos. Y en casos como este de las fotos de un padre a su hijo, que adem谩s no distribuy贸 masivamente, hace falta que las herramientas se entrenen mejor y que, ante una conclusi贸n tan dram谩tica, act煤e siempre una persona que escuche la versi贸n del supuesto criminal.


Las herramientas que se utilizan a d铆a de hoy para esto son *pol茅micas por c贸mo pueden vulnerar nuestra privacidad*. Porque para funcionar, tienen que comparar nuestras fotos con las bases de datos de pornograf铆a infantil. Y claro, puede ocurrir algo como el incidente que ha sufrido Mark, que pese a tratarse de una imagen personal que no estaba en ning煤n lugar previo, el sistema salt贸. Y lo hizo, seg煤n Google, porque en los seis meses anteriores, su cuenta ya contaba con un v铆deo de una mujer desnuda en la cama con el ni帽o, que el sistema entendi贸 que pod铆a ser problem谩tica.


En el pol茅mico sistema propuesto por Apple para iCloud Photos, que le vali贸 ser tildado de "spyware gubernamental" lo que se escaneaba eran *hashes*, no fotos. Es decir, seg煤n Apple, la compa帽铆a no sabe lo que hay en la foto que el sistema escanea, ve n煤meros que comparar con otros n煤meros de la base de datos.Este caso es el ejemplo perfecto de lo que los expertos en privacidad dec铆an que pod铆a pasar con el de Apple


Los expertos en protecci贸n a menores *argumentaban que el margen de error era 铆nfimo con el sistema de Apple*, pero finalmente no se ha puesto en pr谩ctica. El de Google, que s铆 est谩 activo con su Content Safety API ha ca铆do en ese margen de error al usar inteligencia artificial para "proactivamente identificar CSAM (Contenido de Abuso Sexual Infantil) de im谩genes nunca antes vistas".


Aunque el sistema falle, la parte extra帽a del caso es la del an谩lisis que hay que hacer antes de enviar la informaci贸n al Centro Nacional para Ni帽os Desaparecidos y Explotados, o desde all铆 a las autoridades, pues intervienen personas. En 2021, el NCMEC avis贸 a las autoridades sobre 4.260 v铆ctimas potenciales.


Seg煤n el NYT, esa lista inclu铆a al hijo de Mark. El total de veces que Google inform贸 al NCMEC para que tomaran las acciones oportunas, eso s铆, fue mucho m谩s alto: m谩s de 600.000 casos, seg煤n el informe de transparencia. Es decir, el NCMEC tuvo que hacer un gran cribado, pero aun as铆 *no fue suficiente para casos como el de Mark*.


El proceso de escaneo comenz贸 al subirse las fotos del padre a Google Fotos, que es la "acci贸n afirmativa" que necesitan para que el sistema tengo v铆a libre con fotograf铆as personales. Una portavoz de Google dijo a The New York times que la compa帽铆a manten铆a sus decisiones, pese a que legalmente todo se hab铆a aclarado. A d铆a de hoy, *Mark sigue sin poder acceder a su cuenta* pero a que legalmente el caso se aclar贸. En un comunicado a The Verge, Google ha defendido lo siguiente:


"El material de abuso sexual infantil es abominable y estamos comprometidos a evitar que se propague en nuestras plataformas. Seguimos la ley de los EE.UU. al definir lo que constituye CSAM y usamos una combinaci贸n de tecnolog铆a de comparaci贸n de hash e inteligencia artificial para identificarlo y eliminarlo de nuestras plataformas. Adem谩s, nuestro equipo de expertos en seguridad infantil revisa el contenido marcado para verificar su precisi贸n y consulta con pediatras para ayudar a garantizar que podamos identificar instancias en las que los usuarios pueden estar buscando asesoramiento m茅dico".


No hay comentarios.:

Con tecnolog铆a de Blogger.