Hace pocos días la nueva inteligencia artificial de Google, Gemini, puso en pausa algunas de sus funciones luego de publicarse en varias redes sociales algunos de los resultados ofensivos, como por ejemplo, la de un hombre negro al ser consultada por un ‘soldado alemán de 1943’.
Abordando este hecho, Sundar Pichai, CEO de Google, envió una carta interna a los trabajadores de la compañía, donde finalmente reconoció el problema. «Sé que algunas de sus respuestas han ofendido a nuestros usuarios y han mostrado prejuicios; para que quede claro, eso es completamente inaceptable y nos hemos equivocado», explica Pichai, en el texto.
«Siempre hemos buscado ofrecer a los usuarios información útil, precisa y sin sesgos en nuestros productos. Por eso la gente confía en ellos. Este debe ser nuestro enfoque para todos nuestros productos, incluidas las herramientas emergentes de IA”, agrega Pichai, según recoge Forbes US.
En una publicación del medio El Mundo, se hace énfasis en que en un intento por presentar siempre imágenes que muestren personas de diversas razas, Google no calculó bien el efecto en contextos concretos y generó estas respuestas que pueden parecer absurdas.
«Ninguna inteligencia artificial es perfecta, especialmente en esta etapa del desarrollo de la industria, pero sabemos que el listón está alto para nosotros y seguiremos trabajando en el problema durante el tiempo que sea necesario», finaliza Pichai en su comunicado.