
Según datos internos de Meta obtenidos por Drop Site News, el gobierno de Israel ha orquestado directamente una amplia campaña contra las publicaciones en Instagram y Facebook que critican a Israel o incluso apoyan vagamente a los palestinos. Los datos muestran que Meta ha cumplido con el 94% de las solicitudes de retirada emitidas por Israel desde el 7 de octubre de 2023. Israel es, con diferencia, el mayor emisor de solicitudes de retirada de contenidos en todo el mundo, y Meta ha seguido su ejemplo, ampliando la red de publicaciones que elimina automáticamente y creando lo que podría denominarse la mayor operación de censura masiva de la historia moderna.
Las peticiones gubernamentales de retirada de contenidos suelen centrarse en las publicaciones realizadas por ciudadanos y ciudadanas dentro de las fronteras de ese gobierno, según explican fuentes internas de Meta. Lo que hace única a la campaña israelí es su éxito en la censura de la expresión en muchos países fuera de Israel. Es más, el proyecto de censura de Israel tendrá eco en el futuro, según fuentes internas, ya que el programa de inteligencia artificial que Meta está entrenando actualmente para moderar contenidos basará sus decisiones futuras en el éxito de la retirada de contenidos críticos con el genocidio de Israel.
Los datos, recopilados y proporcionados a Drop Site News por denunciantes, revelan la mecánica interna de la «Organización de Integridad» de Meta, una organización dentro de Meta dedicada a garantizar la seguridad y autenticidad en sus plataformas. Las solicitudes de retirada de contenidos (TDR, por sus siglas en inglés) permiten a particulares, organizaciones y funcionarios solicitar la retirada de contenidos que supuestamente infringen las políticas de Meta. Los documentos indican que la inmensa mayoría de las solicitudes de Israel (el 95%) corresponden a las categorías de «terrorismo» o «violencia e incitación» de Meta. Y las solicitudes de Israel se han dirigido abrumadoramente a usuarios de países árabes y de mayoría musulmana en un esfuerzo masivo por silenciar las críticas a Israel.
Varias fuentes independientes de Meta confirmaron la autenticidad de la información facilitada por los informantes. Los datos también muestran que Meta eliminó más de 90.000 mensajes para cumplir con los TDR presentados por el gobierno israelí en una media de 30 segundos. Meta también amplió significativamente las eliminaciones automatizadas desde el 7 de octubre, lo que dio como resultado una estimación de 38,8 millones de publicaciones adicionales «intervenidas» en Facebook e Instagram desde finales de 2023. En Facebook, «tomar medidas» significa que una publicación ha sido eliminada, prohibida o suprimida.


Solicitudes de retirada
Todos los TDR del gobierno israelí posteriores al 7 de octubre contienen exactamente el mismo texto de queja, según la información filtrada, independientemente de la sustancia del contenido subyacente que se cuestiona. Según las fuentes, ni un solo TDR israelí describe la naturaleza exacta del contenido denunciado, a pesar de que las solicitudes enlazan con una media de 15 contenidos diferentes. En su lugar, los informes se limitan a indicar, además de una descripción de los atentados del 7 de octubre, que:
«Se trata de una solicitud urgente relativa a videos publicados en Facebook con contenido incitador. El archivo adjunto a esta solicitud contiene enlaces [sic] a contenidos que violan los artículos 24(a) y 24(b) de la Ley Antiterrorista israelí (2016), que prohíbe la incitación al terrorismo la alabanza de actos de terrorismo y la identificación o el apoyo a organizaciones terroristas. Además, varios de los enlaces violan el artículo 2(4) de la Ley de Protección de la Privacidad (1982), que prohíbe publicar imágenes en circunstancias que puedan humillar a la persona representada, ya que contienen imágenes de muertos, heridos y secuestrados. Además, a nuestro entender, el contenido del informe adjunto infringe las normas comunitarias de Facebook».
El sistema de control de contenidos de Meta procesa las denuncias enviadas por los usuarios a través de diferentes vías, dependiendo de quién las envíe. Los usuarios habituales pueden denunciar publicaciones a través de la función de denuncia integrada en la plataforma, lo que desencadena una revisión. Los modelos de aprendizaje automático suelen clasificar primero las publicaciones denunciadas como infractoras o no infractoras, aunque a veces también las revisan moderadores humanos. Si la IA asigna una puntuación de confianza alta que indica una infracción, el mensaje se elimina automáticamente. Si la puntuación de confianza es baja, los moderadores humanos revisan el mensaje antes de decidir si toman medidas.
Los gobiernos y las organizaciones, por su parte, disponen de canales privilegiados para activar la revisión de contenidos. Las denuncias enviadas a través de estos canales reciben mayor prioridad y casi siempre son revisadas por moderadores humanos en lugar de por la IA. Una vez revisadas por los humanos, las revisiones se retroalimentan al sistema de IA de Meta para ayudarle a evaluar mejor contenidos similares en el futuro. Aunque los usuarios comunes también pueden presentar TDR, rara vez se les da curso. Los TDR presentados por los gobiernos tienen muchas más probabilidades de dar lugar a la eliminación de contenidos.
Meta ha cumplido en su inmensa mayoría con las peticiones de Israel, haciendo una excepción con la cuenta del Gobierno al eliminar publicaciones sin revisión humana, según los denunciantes, mientras seguía alimentando con esos datos la IA de Meta. Un informe de Human Rights Watch (HRW) en el que se investigaba la moderación por parte de Meta de contenidos propalestinos después del 7 de octubre descubrió que, de las 1.050 publicaciones que HRW documentó como retiradas o suprimidas en Facebook o Instagram, 1.049 eran de contenido pacífico en apoyo de Palestina, mientras que sólo una era de contenido en apoyo de Israel.
Una fuente de la Organización de Integridad de Meta confirmó que las revisiones internas de su moderación automática descubrieron que el contenido propalestino que no violaba las políticas de Meta era eliminado con frecuencia. En otros casos, el contenido propalestino que debería haber sido simplemente eliminado recibía un «strike», que indica una infracción más grave. Si una sola cuenta recibe demasiados «strikes» por el contenido que publica, toda la cuenta puede ser eliminada de las plataformas de Meta.
Según la fuente, cuando en la Organización para la Integridad se planteó la cuestión de la aplicación excesiva de la ley contra los contenidos propalestinos, la dirección respondió diciendo que preferían aplicar una fuerza excesiva contra los contenidos potencialmente infractores, en lugar de aplicar una fuerza insuficiente y arriesgarse a que los contenidos infractores siguieran activos en las plataformas de Meta.
Destitución, huelga, suspensión
Dentro de Meta, varios puestos directivos clave están ocupados por figuras con conexiones personales con el gobierno israelí. La Organización de Integridad está dirigida por Guy Rosen, un exmilitar israelí que sirvió en la Unidad 8200 de inteligencia de señales del ejército israelí. Rosen fue el fundador de Onavo, una empresa de análisis web y VPN que entonces adquirió Facebook en octubre de 2013. (Informes anteriores han revelado que, antes de adquirir la empresa, Facebook utilizó los datos que Onavo recopilaba de sus usuarios de VPN para supervisar el rendimiento de sus competidores -parte del comportamiento anticompetitivo alegado por la Comisión Federal de Comercio bajo la administración Biden en su demanda contra Meta).
La Organización de Integridad de Rosen trabaja en sinergia con la Organización de Políticas de Meta, según los empleados. La Organización Política establece las normas y la Organización de Integridad las hace cumplir, pero ambas se alimentan mutuamente. «A menudo, los cambios de política se basan en los datos de la organización de integridad», explicó un empleado de Meta. Desde este año, Joel Kaplan sustituye a Nick Clegg al frente de la Organización de Políticas. Kaplan es un exfuncionario del gobierno de Bush que trabajó con funcionarios israelíes en el pasado en la lucha contra la «incitación en línea».
La Directora de Políticas Públicas para Israel y la Diáspora Judía de Meta, Jordana Cutler, también ha intervenido para investigar contenidos pro Palestina. Cutler es una exalta funcionaria del gobierno israelí y asesora del primer ministro Benjamin Netanyahu. Al parecer, Cutler ha utilizado su cargo para marcar contenidos propalestinos. Según comunicaciones internas revisadas por Drop Site, en fecha tan reciente como marzo, Cutler dio instrucciones activas a empleados de la empresa para que buscaran y revisaran contenidos en los que se mencionara a Ghassan Kanafani, novelista árabe considerado pionero de la literatura palestina. Inmediatamente antes de incorporarse a Meta como alta responsable política, pasó casi tres años como jefa de gabinete de la embajada israelí en Washington D.C., y casi cinco años como adjunta de uno de los principales asesores de Netanyahu, antes de convertirse en asesora de Netanyahu para Asuntos de la Diáspora.
Según información interna revisada por Drop Site, Cutler ha seguido exigiendo la revisión de contenidos relacionados con Kanafani en virtud de la política de Meta «Glorificación, Apoyo o Representación» de individuos u organizaciones «que proclaman una misión violenta o se dedican a la violencia para tener presencia en nuestras plataformas.» Kanafani, que murió en 1972 en un atentado con coche bomba orquestado por el Mossad, fue portavoz del grupo nacionalista palestino de izquierda Frente Popular para la Liberación de Palestina (FPLP). El FPLP fue designado grupo terrorista más de un cuarto de siglo después de su asesinato, lo que, según las directrices de Meta y los esfuerzos de Cutler, sirve de base para marcar sus contenidos con el fin de retirarlos, eliminarlos y posiblemente suspenderlos.
Alcance mundial
Los documentos filtrados revelan que las solicitudes de retirada de contenidos de Israel se han dirigido abrumadoramente a usuarios de naciones árabes y de mayoría musulmana, siendo los 12 principales países afectados: Egipto (21,1%), Jordania (16,6%), Palestina (15,6%), Argelia (8,2%), Yemen (7,5%), Túnez (3,3%), Marruecos (2,9%), Arabia Saudita (2,7%), Líbano (2,6%), Irak (2,6%), Siria (2%) y Turquía (1,5%). En total, usuarios de más de 60 países han denunciado la censura de contenidos relacionados con Palestina, según Human Rights Watch, con la eliminación de publicaciones, la suspensión de cuentas y la reducción de la visibilidad mediante el bloqueo en la sombra.
Cabe destacar que sólo el 1,3% de las solicitudes de retirada de contenidos de Israel se dirigen a usuarios israelíes, lo que convierte a Israel en un caso atípico entre los gobiernos que suelen centrar sus esfuerzos de censura en sus propios ciudadanos. Por ejemplo, el 63% de las solicitudes de retirada de contenidos de Malasia se dirigen a contenidos malayos, y el 95% de las solicitudes de Brasil se dirigen a contenidos brasileños. Israel, sin embargo, ha dirigido sus esfuerzos de censura hacia el exterior, centrándose en silenciar a los críticos y las narrativas que cuestionan sus políticas, especialmente en el contexto del actual conflicto en Gaza y Cisjordania.
A pesar de que Meta es consciente de las agresivas tácticas de censura de Israel desde hace al menos siete años, según denunciantes de Meta, la empresa no ha puesto freno a los abusos. Por el contrario, según uno de ellos, la empresa «proporcionó activamente al gobierno israelí un punto de entrada legal para llevar a cabo su campaña de censura masiva».
Fuente: Drop Site News.