Cambridge Analytica fue un punto de inflexi贸n para Facebook, el testimonio de Frances Haugen es a煤n peor
Pocos elementos reflejan de una forma tan concisa y visual el cambio de percepci贸n hacia Facebook en los 煤ltimos diez a帽os como el paso por la portada de Time de su CEO, Mark Zuckerberg. En el a帽o 2010 le declararon personaje del a帽o. En 2021 invitan de forma poco sutil a eliminar Facebook. Ya sea la app o ya sea la empresa.
Entre ambas portadas han pasado muchas cosas. Un peque帽o resumen:
- En 2012 hizo un experimento psicol贸gico con 70.000 participantes sin su consentimiento. Eliminaba ciertas palabras de sus muros de noticias para probar c贸mo afectaba eso a sus reacciones a esas publicaciones.
- En 2016 tuvo varias pol茅micas por censurar ciertas informaciones que cuestionaban por s铆 mismas sus pol铆ticas de moderaci贸n de contenidos, denotando arbitrariedad.
- Las elecciones presidenciales de Estados Unidos en 2016 estuvieron marcadas por la desinformaci贸n difundida en Facebook: las noticias falsas superaron en n煤mero a las noticias reales.
- El caso Cambridge Analytica destap贸 la desproporcionada cantidad de informaci贸n que un algoritmo de Facebook captura de un usuario con una simple docena de likes.
- A su vez, destap贸 la ligereza con la que Facebook maneja nuestros datos y lo sumamente f谩cil que result贸 a innumerables empresas acceder a ellos.
- Supimos del conocimiento de Facebook de las "operaciones psicol贸gicas" a las que se dedicaba Cambridge Analytica con el objetivo de hacer cambiar de opini贸n a la gente meidante el "dominio informativo".
- Tras la compra de WhatsApp, Facebook asegur贸 no querer ni siquiera poder enlazar los perfiles de usuarios de ambas aplicaciones para aumentar la recolecci贸n de datos. Eso fue exactamente lo que hacen desde este a帽o.
"Pero espere, ¡a煤n hay m谩s!"
Y ahora se suma a la lista The Facebook Files, un informe filtrado por Frances Haugen, ex-directora de producto de la red social que ha acusado a la empresa, primero de forma an贸nima y luego revelando su identidad, de incentivar el contenido polarizante y divisor, de ofrecer respuestas d茅biles a contenido en torno al tr谩fico de personas, la venta de 贸rganos, la violencia contra minor铆as 茅tnicas, las drogas o la pornograf铆a. Tipos de contenidos prohibidos por la normativa de Facebook que en muchos casos, seg煤n la documentaci贸n aportada por Haugen, tuvo respuestas d茅biles, cuando no nulas.
Ni la propia Facebook es ya capaz de manejar su algoritmo, algo que puede complicar jur铆dicamente sus pr贸ximos a帽os
"Estoy aqu铆 hoy porque creo que los productos de Facebook perjudican a los ni帽os, avivan la divisi贸n y debilitan nuestra democracia", dijo Heugen al Senado. En el mejor de los casos, alguien con buena fe puede pensar que Facebook simplemente ya es incapaz de controlar con precisi贸n qu茅 se muestra y qu茅 no en los muros de sus usuarios.
El funcionamiento del algoritmo de Facebook se basa en que no hay un 煤nico algoritmo ni est谩 centralizado por un solo departamento, sino que los modelos de aprendizaje autom谩tico van siendo agregados por los propios ingenieros de la empresa en funci贸n de los objetivos que hayan sido asignados a su equipo de trabajo. Esta din谩mica implica que puede haber algoritmos cuyos objetivos entren en conflicto con otros. Como una competencia. La complejidad ha crecido tanto que se hace extremadamente dif铆cil hacer modificaciones.
Eso puede ser una noticia especialmente mala para Facebook: si su algoritmo ha llegado a ser inmanejable, lo tendr谩 a煤n m谩s dif铆cil para asumir responsabilidades. Hace dos a帽os un senador plante贸 a Zuckerberg la segregaci贸n de Facebook e Instagram y su puesta a la venta, obteniendo una negativa. En ese momento fue solo un planteamiento sin imperativo legal.
Haugen decidi贸 abandonar Facebook cuando la empresa decidi贸 desbaratar el equipo de "integridad c铆vica", un departamento creado para "servir primero al inter茅s de la gente, no al de Facebook". Eso fue en 2020, tras las elecciones presidenciales que gan贸 Biden, y muchos empleados sintieron que la disoluci贸n tuvo como objeto dejar de concentrar el poder en un equipo con prioridades distintas a las de la empresa: anteponer el inter茅s social al corporativo.
¿Ahora qu茅? Miramos la portada de Time en 2010 y nos sentimos un poco pardillos: confiamos en masa nuestros datos, gustos, informaci贸n y hasta tests de personalidad (W-T-F) a las aplicaciones de una empresa que ha roto sus promesas una y otra vez. Las cifras trimestrales que ofrece esa empresa siguen rompiendo sus propios r茅cords.
Peor debe sentirse Zuckerberg, viendo su rostro con 26 a帽os bajo el r贸tulo "personaje del a帽o", con la nostalgia de una vida mejor, la de cuando verdaderamente solo ten铆a problemas de rico (¿me infantilizan demasiado los rizos? ¿Cu谩l de todas las apps de fotograf铆a deber铆amos comprar?). Ahora por suerte sus preocupaciones tambi茅n son otras, falta saber durante cu谩nto tiempo m谩s tendremos que preocuparnos nosotros.
No hay comentarios.: