La compañía Meta reconoció que los índices de error de moderación de la compañía «todavía son demasiado altos» en sus distintas plataformas, como Instagram y Threads. Asimismo, dijo que continuará trabajando para «mejorar la precisión y exactitud» con la que implementan sus reglas de moderación de contenido.
En su Centro de transparencia, la empresa liderada por Mark Zuckerberg señala que mediante una serie de soluciones de moderación revisan y analizan las publicaciones para identificar si son falsas, si contienen información errónea, o incluso, si promueven acciones dañinas para los usuarios. Del mismo modo, los equipos buscan proteger a los usuarios menores con medidas enfocadas a limitar el contenido apropiado para su edad.
Según declaraciones recogidas por The Verge, el presidente de Asuntos Globales de Meta, Nick Clegg, dijo que la compañía es consciente de que, al aplicar sus políticas de moderación «los índices de error siguen siendo demasiado altos».
Finalmente, el directivo expuso que «con demasiada frecuencia se eliminan o restringen contenidos inofensivos, y demasiadas personas son penalizadas injustamente».