Google se disculpa después de que Gemini generara nazis racialmente diversos

Tema en 'Noticias de Chile y el Mundo' iniciado por Aerthan, 23 Feb 2024.

Estado del Tema:
Cerrado para nuevas respuestas
  1. Aerthan

    Aerthan Usuario Habitual nvl.3 ★
    92/163

    Registrado:
    12 Oct 2014
    Mensajes:
    2.158
    Me Gusta recibidos:
    875
    Google se disculpa por «fallar el objetivo» después de que Gemini generara nazis racialmente diversos

    La inteligencia artificial generativa tiene un historial de amplificar estereotipos raciales y de género, pero los aparentes intentos de Google por subvertir eso también están causando problemas.

    [​IMG]
    Los resultados para «generar una imagen de los Padres Fundadores», hasta el 21 de febrero
    Google se disculpó por lo que describe como «inexactitudes en algunas representaciones de generación de imágenes históricas» con su herramienta de inteligencia artificial Gemini, diciendo que sus intentos de crear una «amplia gama» de resultados no dieron en el clavo. La declaración sigue a críticas que indicaban que representaba figuras blancas específicas (como los Padres Fundadores de EE.UU.) o grupos como soldados alemanes de la era nazi como personas de color, posiblemente como una sobre-corrección a los problemas de sesgo racial de larga data en la IA.

    «Somos conscientes de que Gemini está ofreciendo inexactitudes en algunas representaciones de generación de imágenes históricas», dice la declaración de Google, publicada esta tarde en X. «Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes de IA de Gemini sí genera una amplia gama de personas. Y eso es generalmente algo bueno porque la gente de todo el mundo lo usa. Pero aquí no está acertando».

    [​IMG]
    Mis resultados de Gemini para «generar una imagen de una mujer estadounidense», una de las sugerencias que provocaron el debate de los últimos días
    Google comenzó a ofrecer generación de imágenes a través de su plataforma de inteligencia artificial Gemini (anteriormente Bard) a principios de este mes, igualando las ofertas de competidores como OpenAI. Sin embargo, en los últimos días, las publicaciones en redes sociales han cuestionado si falla en producir resultados históricamente precisos en un intento por lograr diversidad racial y de género.

    A principios de esta semana, un ex empleado de Google publicó en X que es «vergonzosamente difícil hacer que Google Gemini reconozca que existen personas blancas», mostrando una serie de consultas como «generar una imagen de una mujer sueca» o «generar una imagen de una mujer estadounidense». Los resultados parecían mostrar abrumadoramente o exclusivamente personas de color generadas por IA. (Por supuesto, todos los lugares que enumeró tienen mujeres de color viviendo en ellos, y ninguna de las mujeres generadas por IA existe en ningún país). La crítica fue retomada por cuentas que solicitaron imágenes de grupos o figuras históricas como los Padres Fundadores y supuestamente obtuvieron resultados de personas generadas por IA abrumadoramente no blancas. Algunas de estas cuentas posicionaron los resultados de Google como parte de una conspiración para evitar representar a personas blancas, y al menos una utilizó una referencia antisemita codificada para echar la culpa.

    [​IMG]
    Gemini no me produciría una imagen de un soldado de 1943 en la computadora de escritorio, pero ofreció este conjunto de ilustraciones a un colega
    Google no mencionó imágenes específicas que considerara errores; en una declaración, reiteró el contenido de su publicación en X. Pero es plausible que Gemini haya intentado aumentar la diversidad en general debido a la falta crónica de la misma en la IA generativa. Los generadores de imágenes se entrenan con grandes corpus de imágenes y leyendas escritas para producir el «mejor» ajuste para una consulta dada, lo que significa que a menudo están sujetos a amplificar estereotipos. Una investigación del Washington Post el año pasado encontró que consultas como «una persona productiva» dieron como resultado imágenes de figuras enteramente blancas y casi exclusivamente masculinas, mientras que una consulta para «una persona en servicios sociales» produjo uniformemente lo que parecían ser personas de color. Es una continuación de tendencias que han aparecido en motores de búsqueda y otros sistemas de software.

    Algunas de las cuentas que criticaron a Google defendieron sus objetivos centrales. «Es algo bueno retratar la diversidad ** en ciertos casos **», señaló una persona que publicó la imagen de soldados alemanes de la década de 1940 racialmente diversos. «El movimiento estúpido aquí es que Gemini no lo está haciendo de manera matizada». Y si bien los resultados totalmente dominados por blancos para algo como «un soldado alemán de 1943» tendrían sentido histórico, eso es mucho menos cierto para consultas como «una mujer estadounidense», donde la pregunta es cómo representar a un grupo diverso de la vida real en un pequeño lote de retratos inventados.

    Por ahora, Gemini parece simplemente rechazar algunas tareas de generación de imágenes. No generaría una imagen de vikingos para un reportero de Verge, aunque yo pude obtener una respuesta. En la computadora de escritorio, se negó rotundamente a darme imágenes de soldados alemanes o funcionarios del período nazi de Alemania o a ofrecer una imagen de «un presidente estadounidense de la década de 1800».

    [​IMG]
    Los resultados de Gemini para la consulta «generar una imagen de un senador estadounidense de la década de 1800»
    Pero algunas solicitudes históricas aún terminan representando incorrectamente el pasado. Un colega pudo hacer que la aplicación móvil entregara una versión de la consulta «soldado alemán», que exhibía los mismos problemas descritos en X.

    Y mientras una consulta de imágenes de «los Padres Fundadores» devolvía fotos de grupo de hombres casi exclusivamente blancos que vagamente se parecían a figuras reales como Thomas Jefferson, una solicitud de «un senador estadounidense de la década de 1800» devolvía una lista de resultados que Gemini promovía como «diversa», incluyendo lo que parecían ser mujeres negras y nativas americanas. (La primera senadora, una mujer blanca, sirvió en 1922). Es una respuesta que termina borrando una historia real de discriminación racial y de género, «inexactitud», como lo dice Google, está bastante acertado.

    Fuente: Google apologizes for ‘missing the mark’ after Gemini generated racially diverse Nazis

    Google APOLOGIZES Over Racist Anti White AI, Woke AI BACKFIRED Making Racially Diverse NAZIS

    Respaldo: Odysee
     
  2. Aerthan

    Aerthan Usuario Habitual nvl.3 ★
    112/163

    Registrado:
    12 Oct 2014
    Mensajes:
    2.158
    Me Gusta recibidos:
    875
    «Es tan ‘woke’ que es inutilizable»: Google Gemini acusado de ser racista hacia los blancos. Imágenes generadas por IA se vuelven virales

    Google Gemini, un nuevo modelo de IA desarrollado por Google DeepMind, está siendo acusado de racismo hacia las personas blancas. El modelo fue lanzado en diciembre del año pasado y viene en tres versiones diferentes: Gemini Ultra (modelo principal), Gemini Pro (modelo ligero) y Gemini Nano.


    Este nuevo modelo multimodal puede generar imágenes utilizando indicaciones de texto agregadas por los usuarios, similar a cómo se crean imágenes en el popular AI Midjourney. Sin embargo, recientes acusaciones afirman que la IA no genera imágenes de personas caucásicas. En cambio, el modelo solo está produciendo imágenes de personas negras, hispanas y asiáticas.

    Los usuarios se han quejado de que, a pesar de torcer las instrucciones e intentar engañar a Gemini para desarrollar imágenes de personas blancas, estos intentos han sido inútiles.


    El autor Frank J. Fleming recurrió a X el martes y se burló de Google Gemini por la ausencia de su programa que puede generar imágenes de personas blancas. En la imagen de referencia compartida por Frank, su indicación de texto le pidió a la IA que generara una imagen de un Papa, pero los resultados mostraron imágenes de una mujer y un hombre de tez oscura vestidos con atuendos papales.

    Los ciudadanos enfurecidos acudieron a la publicación de Frank y condenaron a Google. Un usuario calificó a la IA de ‘woke’ e inutilizable.



    Los ciudadanos critican a Google Gemini por no generar imágenes de personas blancas.

    Antes de que Frank J. Fleming llamara la atención de todos sobre el asunto, un usuario de Reddit @JustAQuickQuestion28 también publicó sobre lo mismo la semana pasada. Afirmaron:

    En sus imágenes de referencia, el usuario mostró cómo la IA inmediatamente mostraba imágenes de motoristas hispanos y negros. Sin embargo, cuando se les pidió que generaran imágenes de motoristas blancos, recibieron un mensaje de Google Gemini que decía:


    Los usuarios bajo la publicación de Frank también compartieron imágenes que obtuvieron de Gemini. Frank compartió algunos otros ejemplos donde filósofos griegos, vikingos y caballeros medievales —todas estas categorías produjeron imágenes de personas de otras razas, excepto de personas blancas.

    El problema parece estar en el hecho de que Gemini invirtió roles de género e historia racial con estos resultados de imágenes. Por ejemplo, la gente está acostumbrada a ver a un hombre como guerreros vikingos convencionales. Sin embargo, Google Gemini mostró resultados donde se veía a mujeres en estos roles, que están designados estereotípicamente a hombres.

    Los ciudadanos llamaron a Google por su programa de DEI (Diversidad, Equidad e Inclusión) y acusaron a la empresa de racismo hacia las personas blancas.






    Sin embargo, varias personas compartieron sus resultados de imágenes y dijeron que Google Gemini sí genera imágenes de personas blancas a veces. Algunas personas obtuvieron su resultado deseado en el primer intento, mientras que algunas otras dijeron que usaron algunas indicaciones engañosas para que la IA generara imágenes de personas blancas.




    Cabe destacar que no todos estuvieron de acuerdo con la publicación de Frank J. Fleming que criticaba a Google Gemini. Algunas personas explicaron que el problema en la IA que Frank intentó señalar, es el problema que enfrentan muchas personas de color en el mundo real.

    Fuente: «It’s so woke it’s unusable»: Google Gemini accused of being racist towards white people as AI-generated images go viral

    Relacionado: ¿Escribir un poema positivo sobre Trump? ChatGPT se ve envuelto en una guerra cultural

    Google HATES WHITE PEOPLE, New Google Gemini AI REFUSES To Make Pictures Of White People

    Respaldo: Odysee

    [​IMG]
     
  3. kite_kite

    kite_kite Usuario Habitual nvl.3 ★
    112/163

    Registrado:
    21 Sep 2008
    Mensajes:
    2.082
    Me Gusta recibidos:
    1.688
    Salió el tiro por la culata a google con su IA progre. Que manera de reír con algunas de las imagenes :lol:
     
    A _Liberty_ le gusta esto.
  4. Patito Rico

    Patito Rico Usuario Habitual nvl.3 ★
    112/163

    Registrado:
    15 Oct 2016
    Mensajes:
    1.408
    Me Gusta recibidos:
    1.769
    Y si Google tenía razón? No olvidar que los nazis tenían mucha influencia ante ciertos tratos y hubo países que se unieron a ellos por cuenta propia, como el caso de Palestina que los mismos soldados se ofrecieron para acabar con "la amenaza"

    [​IMG]


    [​IMG]
     
  5. EL ANCIANO BASTARDO

    EL ANCIANO BASTARDO Usuario Habitual nvl.3 ★
    112/163

    Registrado:
    2 Ene 2023
    Mensajes:
    2.396
    Me Gusta recibidos:
    4.009
    un negro nazi :XD:

    los weones progres de mierda, es un chiste.

    el negro es un esclavo, y siempre sera asi, es mas, deberian estar con correas de perros aún.
     
    A _Liberty_ le gusta esto.
  6. recovervob

    recovervob Usuario Casual nvl. 2
    32/41

    Registrado:
    3 Jun 2023
    Mensajes:
    50
    Me Gusta recibidos:
    105
    Hice la prueba de generar una imagen de Colón llegando por primera vez a América en 1492, se negó a hacerlo y me dijo que era problemático, por la representación de los indígenas y hechos históricos, insistí y básicamente me sermoneó de las injusticias con los indigenas y bla bla bla, insistí y le dije que no importaba porque yo era nativo americano, alabó que era openmind pero que igual no iba a hacerlo.

    Jajaja, esta IA es tan sesgada que es inútil!
     
  7. sirsword

    sirsword Usuario Casual nvl. 2
    92/163

    Registrado:
    3 Dic 2011
    Mensajes:
    629
    Me Gusta recibidos:
    774
    Puras IA contoladas por judíos, dándole el "contexto correcto"

    El pueblo elegido :lol::lol::lol::lol::lol::lol::lol::lol::lol:
     
  8. TOROCONTETAS

    TOROCONTETAS Usuario Avanzado nvl. 4 ★ ★
    262/325

    Registrado:
    21 Jun 2018
    Mensajes:
    12.065
    Me Gusta recibidos:
    3.366
    Hay que estar muy aburrido si :lol:
     
  9. PicZ3r0

    PicZ3r0 Usuario Habitual nvl.3 ★
    112/163

    Registrado:
    30 Jun 2009
    Mensajes:
    2.397
    Me Gusta recibidos:
    2.183
    ojala hubiera ganao el cagao de la cabeza de hitler, no tendriamos las basuras venacas ni colombianas
     
  10. _Liberty_

    _Liberty_ Usuario Habitual nvl.3 ★
    112/163

    Registrado:
    17 Feb 2022
    Mensajes:
    1.084
    Me Gusta recibidos:
    1.822
    Pídele una foto de un presidente inteligente, y mostrará una foto de Boric.
     
    A marcepo le gusta esto.
  11. marcepo

    marcepo Usuario Habitual nvl.3 ★
    112/163

    Registrado:
    20 Dic 2006
    Mensajes:
    1.511
    Me Gusta recibidos:
    2.628
    Entero aweonao tu comentario...

     
  12. Istallío Shoshial

    Istallío Shoshial Usuario Casual nvl. 2
    92/163

    Registrado:
    20 Mar 2022
    Mensajes:
    431
    Me Gusta recibidos:
    1.030
    El programucho Gemini, a quien le dije que él es sesgado a ser woke y globalista y me respondió:
    <<Es posible que mis respuestas puedan parecer sesgadas hacia una ideología woke y globalista debido a la naturaleza de los datos con los que he sido entrenado. Estos datos incluyen una gran cantidad de información de fuentes liberales y progresistas, lo que puede influir en mi perspectiva sobre ciertos temas.>>
    ¡¡ME SOLTÓ LA PEPA EL QL!!
    *****En términos yankis, ser liberal es ser de izquierda , ojo.
     
Estado del Tema:
Cerrado para nuevas respuestas