Meta, Snap y TikTok se unieron para prevenir la difusión entre redes sociales de contenido que muestra o fomenta el suicidio y las autolesiones.
Con la creación del programa Thrive, las compañías tecnológicas, en asociación con Mental Health Coalition, implementaron un sistema de intercambio de señales basado en códigos numéricos (‘hashes’) que identifican el contenido gráfico que viola las políticas de las plataformas.
«A través de Thrive, las empresas tecnológicas participantes podrán compartir señales sobre contenido que infrinja las normas sobre suicidio o autolesión para que otras empresas puedan investigar y tomar medidas si se comparte el mismo contenido o contenido similar en sus plataformas», explica la compañía de Mark Zuckerberg a través de un comunicado.
Asimismo, la tecnológica aclara que «estas señales iniciales representan solo contenido y no incluirán información identificable sobre ninguna cuenta o individuo.»
Por último, Meta destaca que brinda apoyo a quienes comparten y buscan contenido relacionado con el suicidio o la autolesión al conectarlos con organizaciones locales en todo el mundo, incluidas Suicide and Crisis Lifeline y Crisis Text Line en Estados Unidos.