Arturo Béjar, ex ingeniero de Meta: “En Instagram está el mayor acoso sexual de la historia de la humanidad”

Imatge
Whistleblower Exposes Meta's 'Placebo' Safety Features For Children
Àmbits Temàtics

“Un tercio de los adolescentes en Instagram han recibido acoso sexual en el último mes”, avisa el antiguo jefe de ingeniería de Facebook y asesor de Instagram, fuente clave de la investigación de EEUU contra Meta

— Más de 40 estados de EEUU demandan a Instagram por ser “dañina” para los menores y la equiparan al tabaco

“No sé por qué no construyeron la herramienta. Yo cuando hablo de esto hablo acerca de lo que sé. Y lo que sé es que un tercio de los menores de 16 años con cuenta en Instagram han recibido acoso sexual en el último mes. En los últimos siete días son uno de cada ocho. Sé que es fácil construir lo que yo le explique a Adam. Sé que les costaría aproximadamente dos o tres meses hacerlo. Y sé que no lo han hecho. ¿Por qué? Eso es algo que el mundo les tiene que preguntar”.

Son palabras de Arturo Béjar, ex ingeniero de Meta. “Adam” es Adam Mosseri, el máximo responsable de Instagram después del propio Mark Zuckerberg. “La herramienta” es un botón que permita a los menores denunciar que han recibido acoso sexual a través de un mensaje directo.

Béjar es uno de los extrabajadores de la corporación que han comparecido ante el Senado de EEUU en su nueva investigación contra Meta, Facebook e Instagram. Su declaración ha sido una de las bases de la macrodemanda de los fiscales generales del país contra la compañía. En esta entrevista con elDiario.es el ex jefe de ingeniería de la compañía explica lo que vio dentro de Instagram, cómo actuó Mark Zuckerberg y el resto de la dirección cuando les avisó personalmente de los problemas o cómo Meta y su fundador ofrecen datos “engañosos” a la prensa y a los reguladores cuando se ven obligados a dar explicaciones.

“Los datos sobre Instagram son trágicos. Es probablemente el mayor acoso sexual de la historia de la humanidad. Tienes cientos de millones de adolescentes y un tercio de ellos han recibido alguna forma de acoso, por su sexo, por su cuerpo. La respuesta de la compañía es We care [nos preocupamos] y hemos lanzado 30 herramientas para solucionarlo, pero cuando las revisas ves que muchas de ellas ni siquiera están activas por defecto”, denuncia.

 

 

 

 

 

 

 

Arturo Béjar testifica ante los senadores del Comité de Justicia de EEUU

 

“¿Cómo puede uno confiar en lo que esta compañía dice? Mark Zuckerberg se para ante el Congreso y le dice al mundo que 'la prevalencia del odio' en la plataforma es del 0,8%, cuando sus propios estudios generados por un equipo de profesionales del más alto nivel están arrojando que entre un 15% y un 20% de los usuarios recibieron acoso en base a su cuerpo, su religión, su identidad. ¿Cómo puedes decir que no hay un problema, cuando la gente que usa el producto y tus equipos te dicen que sí? Es como que si le pidieras a un niño que calificara su propia tarea. No, lo que están diciendo no es un reflejo de la experiencia real de la gente”, asevera Béjar.

 

Director de ingeniería y consultor

 

El recorrido de Béjar en la corporación de redes sociales y su ascendencia sobre la cúpula son aspectos clave de su testimonio. Durante seis años fue director de ingeniería de Facebook, antes de que la corporación pasara a llamarse Meta.

 

“Dirigía un grupo llamado Protect & Care. Era responsable de la 'Integridad del sitio', que detenía los ataques y los comportamientos maliciosos; de la 'Infraestructura de seguridad', que diseñaba sistemas resistentes y trabajaba en el cumplimiento; y de un grupo llamado 'Care', que desarrollaba las herramientas de atención al usuario y al cliente interno de Facebook. También supervisé las herramientas de seguridad infantil”, detalla.

 

Entre otras funciones, Béjar era la persona encargada de desarrollar las herramientas para que los usuarios pudieran comunicar a la plataforma que algo no iba bien. Esto le colocó en una posición en la que tenía una relación directa con la dirección ejecutiva de Facebook, a saber: el propio Zuckerberg, Sheryl Sandberg (directora de operaciones de la compañía de 2008 a 2022 y arquitecta de su modelo de negocio basado en la publicidad segmentada) y Chris Cox (uno de sus primeros ingenieros y director de producto desde 2014).

 

Tenía una reunión de estrategia con ellos al menos dos veces al año y era una de las voces más autorizadas de Silicon Valley en la protección de los usuarios en las plataformas online, hasta que en 2015 abandonó la compañía. En parte, para poder pasar más tiempo con su familia.

 

En 2019, su hija de catorce años le enseñó un mensaje privado en el que otro usuario de Instagram le preguntaba si quería tener sexo con él. Ella no le había dado ningún pie para ello. “Tratamos de reportarlo y no era posible. No había ninguna herramienta para ayudarla. Muchas de las cosas que habíamos construido durante mi tiempo allí ya no estaban disponibles, habían desaparecido”, relata Béjar en conversación con este medio.

 

Su hija le explicó que casi todas sus amigas había recibido mensajes de este estilo por parte de otros menores, en ocasiones incluso insinuaciones de adultos. Era algo habitual.

 

El ingeniero se puso entonces en contacto con su antigua empresa para preguntar por estos problemas. La respuesta fue una oferta de trabajo para que volviera como asesor del equipo de “Bienestar” de Instagram, el encargado de hacer que la plataforma sea más segura para los usuarios más jóvenes, con especial atención a su salud mental.

 

“No fue una buena experiencia”, relató Béjar a los senadores de EEUU en noviembre.

 

Cómo proteger a los adolescentes

 

“La gente de la empresa apenas recordaba las lecciones que habíamos aprendido”, continuó el experto. “Lo más importante que aprendimos sobre los adolescentes antes de 2015 fue que cuando uno de ellos pide ayuda, el contenido que estuvo involucrado en el incidente no importa tanto como darles apoyo, ayudarles en el momento. Así que creamos una herramienta que les preguntaba —utilizando un lenguaje que probamos y desarrollamos en colaboración con los adolescentes— qué estaba ocurriendo, qué emoción estaban experimentando y cuál era su intensidad”.

 

Béjar explica que durante su primera etapa en Facebook, los estudios internos de su equipo mostraron que en un 90% de las ocasiones los contenidos que reportan los adolescentes no violaban los términos de uso de la red social. “Y lo que es más importante y en principio sorprendente, descubrimos que en el 50% de los problemas que los adolescentes señalaban como las malas experiencias más intensas, el contenido resultaba claramente benigno para nosotros, como observadores externos”.

 

Sus estudios mostraban además que en el 90% de los casos, las personas que habían publicado los contenidos que terminaban siendo más hirientes para los adolescentes no tenían intención de causarles daño. “Cuando me fui, en 2015, basándonos en la experiencia, habíamos aprendido que para obtener la mejor medida del éxito de una herramienta de apoyo, simplemente necesitábamos preguntar: ¿Recibiste ayuda para lo que tú necesitabas?”.

 

“Cuando volví en 2019, me quedé perplejo”, rememora Béjar. “Había muchos miembros del equipo motivados y con talento trabajando en la seguridad. Pero nadie en ese equipo era consciente del trabajo que habíamos hecho en Facebook y de las lecciones que habíamos aprendido cuatro años antes. El grupo de Instagram y los talentosos equipos de investigación internos habían desarrollado algunas pruebas muy preocupantes de que los jóvenes adolescentes estaban experimentando una gran angustia y abuso en la plataforma Instagram”.

 

Sin embargo, la cúpula de la corporación estaba ocultando esos problemas ante los reguladores: “Los altos directivos informaban externamente de datos diferentes que subestimaban enormemente la frecuencia de los daños experimentados por los usuarios”.

 

“Me comprometí a entender esta brecha y empecé a recopilar parte de la investigación para transmitir el problema a los altos directivos”, afirma el experto.

 

El email

 

Los problemas de Instagram para proteger a los menores ya habían salido a la luz a raíz del testimonio de Frances Haugen, otra extrabajadora de la compañía. La aportación más trascendental de Béjar para los senadores y los fiscales generales es su capacidad para mostrar que la directiva de la compañía sabía perfectamente lo que estaba pasando. Él mismo los avisó.

 

 

 

 

 

 

 

 

La exempleada de Facebook Frances Haugen, antes de testificar ante el Senado de EEUU, el 5 de octubre de 2021, en Washington. EFE/Jabin Botsford

 

“Me dediqué por mucho tiempo a trabajar con el equipo para acumular una información que yo pensaba que cuando se la presentara a los ejecutivos, con los cuales yo había trabajado muy cercanamente, iban a decir 'no, qué es esto, esto no debe ser así. Vamos a resolverlo'. Hablamos de acoso sexual, entre menores, de adultos a menores, bullying, cosas que no deberían estar en este tipo de plataformas”, revela en conversación con este medio.

 

Finalmente el 5 octubre de 2021 envío un email a Zuckerberg, Sandberg, Cox y Mosseri. Era el mismo día que Haugen declaraba en el Senado.

 

“Sé cómo hay que preparar ese tipo de comunicaciones con los ejecutivos”, avisa Béjar. Les presentó los datos internos que había recopilado: “El número de personas que informaban en las encuestas de que habían tenido una experiencia negativa en Instagram era del 51% cada semana, pero solo el 1% de ellas denunciaba el contenido infractor y solo el 2% de ellas conseguía que se retirara el contenido infractor. El 21,8% de los jóvenes de 13 a 15 años afirmaban haber sido objeto de algún tipo de acoso en los últimos siete días, el 39,4% de los niños de 13 a 15 años decían haber experimentado una comparación negativa en los últimos siete días, y el 24,4% de los jóvenes de 13 a 15 años respondían haber recibido insinuaciones no deseadas, todo ello en los siete días anteriores”. 

 

También les contaba el caso concreto de su hija, con una cita textual que ejemplificaba el problema: “Le pregunté por qué los chicos no dejaban de hacer eso. Me dijo que si lo único que pasa es que les bloquean, ¿por qué iban a dejar de hacerlo?”, les relató.

 

Béjar no provocó la reacción que esperaba. Sandberg expresó empatía por su hija pero no ofreció ideas concretas para actuar. Mosseri le pidió una reunión. Zuckerberg no contestó. “Eso fue inusual. Podría haber ocurrido, pero no recuerdo que Mark no me hubiera respondido antes en numerosas comunicaciones que tuve con él, ya fuera por correo electrónico o solicitando una reunión en persona”

 

Su acción terminó siendo en vano, incluyendo la reunión con Mosseri. “Le expliqué que algo muy sencillo sería construir un botón con el que un adolescente pueda rechazar un mensaje privado y decir 'esto no es para mí'. Cuando se trata de mensajes privados, la norma debería ser 'esta es mi casa, son mis reglas'. No importa el contenido. Tú me mandas un mensaje, yo decido que no quiero ese mensaje. Debería ser muy fácil. No tendría que tener que reportarlo y pasar ocho pantallas explicando por qué no quiero recibir ese tipo de mensajes. Así es como encuentras a los predadores, que envían muchos de esos mensajes. Adam lo entendía. En ningún momento me dijo que estaba en desacuerdo. Lo entendía e inclusive era él quien hablaba acerca de la importancia de ese botón y de que la gente se sintiera protegida después de usarlo, porque ese es el incentivo para que se use”, revela.

 

“No veo ninguna razón para que no se implementara una medida sencilla de construir como esa. Pero no se hizo”.

 

La respuesta de Meta

 

elDiario.es se ha puesto en contacto con Meta para incluir su postura en esta información. La compañía se ha remitido a la comunicación que elevó a raíz de la demanda de los fiscales generales de EEUU contra ella.

 

“Compartimos el compromiso de los fiscales generales de proporcionar a los adolescentes experiencias seguras y positivas online, y ya hemos introducido más de 30 herramientas para apoyar a los adolescentes y sus familias. Nos decepciona que, en lugar de trabajar de forma productiva con empresas de todo el sector para crear normas claras y adecuadas a su edad para las numerosas aplicaciones que utilizan los adolescentes, los fiscales generales hayan elegido este camino”, expuso entonces una portavoz de Meta.

 

Béjar ya anticipó la respuesta de las 30 herramientas en su conversación con elDiario.es. “Siempre hablan de las 30 herramientas. Es información engañosa con la que intentan distraer a los reporteros y a los reguladores. Si tu repasas la lista, ves que muchas de ellas ni siquiera está activadas por defecto. Hay una de ellas que es muy buena. Sirve para que a los menores no les lleguen notificaciones por la noche. ¡Pero no está activada por defecto! Tienes que navegar por los menús para activar el botoncito. Así, ¿cuánta gente lo va a usar?”.

 

El móvil y los adolescentes

 

elDiario.es preguntó al ex ingeniero de Meta por la campaña que se está desarrollando en este momento en España para impedir el uso del móvil en los colegios, así como la voluntad de muchas familias de retrasar la entrega de este tipo de dispositivos a los adolescentes o incluso prohibir su uso. Béjar se arrepiente de haberle entregado un móvil a su hija tan pronto.

 

“Si yo tuviera que hacer todo otra vez, bajo ninguna circunstancia le hubiera dado un teléfono a mi hija con estos servicios instalados hasta que no tuviera por lo menos 16 años”, responde. “Entiendo la necesidad de comunicarse, de mandarse mensajes con amigos, tareas, correos de escuela, cosas así. Pero todos los productos de redes sociales están diseñados para maximizar beneficios y no toman suficiente responsabilidad acerca de los daños que están provocando en nuestros menores. Las compañías dicen que no hay adicción, pero yo estoy viendo que mi hijo o mi hija está pasándose horas con él, no está haciendo la tarea y si tratas de quitar el teléfono te grita”, afirma.

 

“Siento que sí, que dado el grado de irresponsabilidad negligente de las compañías que están generando estos productos para menores, como papás no deberíamos darle a ningún niño de 13 años algo que tuviera acceso a redes sociales. No, porque no está diseñado para ellos. Está diseñado para algo más”, concluye.

 

Foto: Andrea Daquino en MIT Technology Review