Meta, empresa matriz de Facebook, solucionó un error de seguridad que permitía acceder a las conversaciones del ‘chatbot’ Meta AI con otros usuarios, pudiendo filtrar mensajes privados y las respuestas generadas por la inteligencia artificial (IA), incluyendo texto e imágenes.
Así lo ha confirmado el analista de seguridad, Sandeep Hodkasia, fundador de la empresa de seguridad AppSecure, en declaraciones a TechCrunch, al precisar que en diciembre del pasado año informó a la compañía liderada por Mark Zuckerberg y obtuvo una recompensa de 10.000 dólares.
Tal vulnerabilidad permitía que los usuarios registrados editaran sus mensajes de IA en la conversación para regenerar texto e imágenes. Tras ello, los servidores ‘backend’ de la empresa tecnológica entregaban un número único a dicho mensaje y a la respuesta generada por el ‘chatbot’.
Este número único asignado se podía identificar analizando el tráfico de red en el navegador y al cambiarlo por otro número, los servidores de Meta devolvían un mensaje y una respuesta generada por Meta AI, pero pertenecientes a otra conversación de otro usuario.
Hodkasia dijo finalmente que no se encontraron evidencias de que dicho fallo hubiese sido explotado maliciosamente.