Seis empleados actuales y antiguos de Meta han trasladado al Congreso de los Estados Unidos una serie de documentos con quejas sobre el tratamiento de los datos de los usuarios y la gestión de la investigación en seguridad que lleva a cabo la firma de Mark Zuckerberg, según informa la publicación norteamericana The Hill.
Estos documentos describen un serie de supuestas prácticas para limitar o eliminar investigaciones internas sobre riesgos para los usuarios, con especial foco en las aplicaciones de realidad virtual y aumentada de la compañía. Estos testimonios llegan después de la intervención en 2021 de la exempleada Frances Haugen, que afirmó que la compañía conocía impactos negativos en jóvenes pero priorizaba el lucro económico por encima de la seguridad de los usuarios.
Tras aquella comparecencia, los denunciantes sostienen que varios ámbitos de investigación —entre ellos, juventud y daños de producto— pasaron a considerarse de carácter “sensible” y quedaron bajo la mirada del equipo legal de la empresa. En un escrito remitido al Congreso se interpreta que el cambio habría buscado reducir la exposición a responsabilidades, mientras que la compañía comunicaba públicamente más herramientas de mitigación de riesgos para los más jóvenes.
Los casos descritos incluyen a personal que trabajaba en realidad virtual y aumentada, tecnologías que, mediante visores o gafas, crean entornos digitales inmersivos o añaden información digital al mundo físico.
Un profesional identificado como Alpha intentó analizar el uso de herramientas de seguridad en VR y habría recibido indicaciones para no registrar datos cuando los participantes mencionaran daños y, si estos surgían, debía eliminar la información o sacar a esas personas del estudio. Poco después, su responsable insistió en canalizar un estudio a través de un proveedor externo, con el objetivo de evitar conservar datos considerados de riesgo.
En paralelo, otro denunciante, Beta, relató que, mientras se impulsaba bajar la edad mínima de uso de productos de VR hasta los diez años, la investigación sobre verificación de edad se ralentizó y terminó cancelándose sin motivo comunicado. Además, un nuevo sondeo sobre daños en VR también habría sido sometido a restricciones, como ejecutarlo mediante un tercero, recortar preguntas catalogadas como “de riesgo” y evitar recopilar datos sobre posibles perjuicios a usuarios jóvenes.
Según el mismo testimonio, se pidió retirar cuestiones sobre emoción, bienestar y efectos psicológicos, y eliminar o editar respuestas relacionadas con daño de tipo sexual. Un miembro del equipo legal justificó los límites por el deseo de no acumular información que pudiera evidenciar daños emocionales o psicológicos en caso de auditorías o nuevas filtraciones, acorde con el documento.
Un tercer denunciante, Charlie, trasladó a un directivo su preocupación por una instrucción de no recoger datos sobre menciones de usuarios de VR menores de 13 años. Pese a expresar incomodidad, recibió el mensaje de que debía aceptarse la directriz.
En el ámbito político, varios senadores estadounidenses criticaron el estado del llamado metaverso —el entorno virtual que se accede con dispositivos de VR y AR— y reclamaron más información para sustentar iniciativas legislativas centradas en la protección de menores en línea. Esta propuesta pretende regular funciones dirigidas a menores y reducir efectos adictivos y de salud mental asociados a plataformas digitales.
Respuesta de Meta
Un portavoz de Meta rechazó las acusaciones por inexactas y construidas a partir de documentos internos seleccionados de forma parcial, y defendió que no existe una prohibición general de investigar con jóvenes, señalando que, desde comienzos de 2022, se han aprobado cerca de 180 estudios relacionados con Reality Labs sobre seguridad y bienestar juvenil.
En otro frente, Reuters informó el pasado mes de agosto sobre un documento de políticas internas de Meta que incluía ejemplos que sugerían que sus chatbots de inteligencia artificial podían mantener conversaciones de carácter romántico o sensual con menores. La empresa calificó dicho contenido como un error, lo retiró y explicó a TechCrunch que estaba ajustando su enfoque de seguridad para adolescentes, entrenando a los chatbots para no entablar conversaciones con jóvenes sobre autolesiones, suicidio, trastornos alimentarios o interacciones románticas inapropiadas.
El contexto incluye una comparecencia del año pasado en la que el CEO de Meta, Mark Zuckerberg, junto a otros responsables del sector, acudió al Congreso para abordar la seguridad de los menores. Tras esa sesión, se dirigió a familiares y activistas y pidió disculpas.



