Por Hannah Pérez  

Google se disculpó por “no dar en el blanco” después de que su herramienta de IA generase imágenes representando a los nazis como personas de color. 

***

  • Gemini, el recién lanzado modelo de IA de Google, causa polémicas
  • La herramienta generó imágenes inclusivas en términos de raza y género, pero inexactas históricamente
  • Por ejemplo, representó a los nazis como personas de color, tergiversando el pasado
  • En otras noticias, Google también presentó su nuevo modelo liviano de IA basado en Gemini: Gemma

 

Google acaba de darse cuenta que el exceso de diversidad racial y de género también puede ser un problema para su recién lanzado modelo de inteligencia artificial (IA) avanzado.

La gigante de tecnología se apresuró a emitir una disculpa pública el miércoles por la noche después de que Gemini, su herramienta de IA antes llamada Bard, generase imágenes con diversidad pero inexactas históricamente.

Las críticas se extendieron después de que varios usuarios notaran que Gemini estaba proporcionando imágenes que representaban una variedad de géneros y etnias, incluso cuando hacerlo era históricamente inexacto.

Google admitió que su herramienta de IA “no dio en el blancoy literalmente así fue. Por ejemplo, cuando se le solicitó a Gemini representar a figuras blancas de la historia, como los padres fundadores de Estados Unidos o grupos de soldados nazi, la herramienta arrojó imágenes de mujeres, nativos americanos, personas de color y de otras etnias, según numerosos reportes.

Somos conscientes de que Gemini ofrece inexactitudes en algunas representaciones históricas de generación de imágenes“, dijo la empresa en un comunicado publicado el miércoles en X, en respuesta a la polémica.

Gemini tiene un sesgo que borra parte de la historia

El sesgo posiblemente fue el resultado de una corrección excesiva para evitar los riesgos de prejuicios raciones en el sistema de IA de Google, como señala The Verge, especialmente en medio de la agresiva competencia tecnológica.

La discriminación y los sesgos raciales y de género ha sido un problema de larga data para la tecnología de inteligencia artificial. Los generadores de imágenes de IA se entrenan con grandes corpus de imágenes y textos para producir la representación más cercana a un mensaje determinado. Sin embargo, a menudo esto significa que son propensos a ampliar los estereotipos.

OpenAI, un importante rival en el área y creador de ChatGPT, ya ha sido acusada de perpetuar estereotipos dañinos. En particular, recibió amplias críticas después de que su generador de imágenes de IA, Dall-E, generase primordialmente imágenes de hombres blancos cuando se le solicitó representaciones de un director ejecutivo o CEO.

Google, que está bajo presión para demostrar que no se está quedando atrás en el desarrollo de la IA, lanzó su última versión de Gemini la semana pasada. Al igual que otros de su tipo, como Dall-E, Gemini, genera imágenes a partir de solicitudes textuales.

La generación de imágenes de IA de Gemini genera una amplia gama de personas. Y eso generalmente es algo bueno porque la gente de todo el mundo la usa. Pero aquí no da en el blanco, explicó Jack Krawczyk, director senior de Gemini.

Estamos trabajando para mejorar este tipo de representaciones de inmediato“, añadió en respuesta a las críticas.

Los intentos de Google para abordar los sesgos raciales y de género parecen haber generado un nuevo problema: su diversidad excesiva puede interpretarse como una tergiversación del pasado que borra un historial real de discriminación de raza y género.

Google lanza Gemma, su nuevo modelo liviano de IA

En un desarrollo paralelo, Google también presentó Gemma, su nueva familia de modelos de lenguaje liviano de código abierto impulsado por Gemini y con el cual busca competir con las herramientas basadas en LLaMa y Mistral de Meta.

Mientras Gemini es un modelo de lenguaje grande (LLM) multimodal, comercial y de código cerrado que busca competir directamente con ChatGPT Plus de OpenAI, Gemma se presenta como una versión liviana más accesible.

Está disponible en dos versiones: Gemma 2B, un modelo liviano entrenado en dos mil millones de parámetros que está optimizado para la eficiencia y puede ejecutarse en un espectro más amplio de hardware, y Gemma 7B, un modelo más robusto entrenado en 7 mil millones de parámetros, que proporciona mejores resultados pero requiere más potencia informática.

En Google, creemos en hacer que la IA sea útil para todos“, dijo Google en un anuncio oficial, enfatizando su visión de democratizar la tecnología de IA, como destacó Decrypt


Artículo de Hannah Estefanía Pérez / DiarioBitcoin

Imagen de Unsplash 

ADVERTENCIA: Este es un artículo de carácter informativo. DiarioBitcoin es un medio de comunicación, no promociona, respalda ni recomienda ninguna inversión en particular. Vale señalar que las inversiones en criptoactivos no están reguladas en algunos países. Pueden no ser apropiadas para inversores minoristas, pues se podría perder el monto total invertido. Consulte las leyes de su país antes de invertir.