123 meneos
2418 clics
El error de la IA de Google con las imágenes revela un problema mucho mayor, más allá del exceso de diversidad, equidad e inclusión [EN]
Dado el problema de las alucinaciones, quienesquiera que sean los líderes de la IA en el futuro (ya sea Google, Microsoft, OpenAI o una nueva empresa) se verán tentados a “cumplir” sus propias reglas sobre lo que la IA debería y no debería producir, al igual que Google. hizo con Géminis. Este “relleno” vendrá inevitablemente de los prejuicios y la cultura de cada empresa y podría eventualmente restringir o al menos modificar drásticamente lo que la IA está permitida o dispuesta a mostrarnos, tal como hizo Google con Gemini
|
comentarios cerrados
La traducción sería "podría llegar a" o "terminaría" o "llegaría".
DeepL me la traduce a "finalmente"
En el movil Collins o Oxford.
Pero si, traducir eventually como eventualmente es un "False friend" como decían mis profesores en mi niñez, de libro.
1. adj. Sujeto a cualquier evento o contingencia.
Sin.:
accidental, contingente, fortuito, ocasional, esporádico.
eventualmente - puede que pase o no
temporalmente - durante un tiempo, el que sea, pero se acabará
Esto es inevitable, la palabra parecida en inglés acaba contaminando con su significado a las palabras que se usen para traducirla. Prácticamente todo lo que leemos en castellano está traducido del inglés. Ahora esquiva eso.
Peor fue lo del japonés con la limitación de kanjis en los periódicos. Antes habia dos kanjis distintos con significados completamente distintos. Uno de ellos fue prohibido. Los periódicos empezaron a usar el otro, que se pronuncia igual, con lo que ahora tienen no sólo la misma pronunciación sino que además comparten un significado.
Que puedes hacer que una IA tenga sesgos ya se sabe. El tema es que está claro que sesgos nos están intentando meter, sesgos que CNN considera beneficiosos, de ahí que la crítica en este artículo sea al peligro de que nos puedan meter otro tipo de sesgos que ellos no aprueban.
Y por aquí viene la problemática. Las técnicas de eliminación de sesgos están bien, y son muy… » ver todo el comentario
Es precisamente la paradoja de la diversidad, lo que mata la diversidad cultural e histórica.
Todas las historias (IA) en el futuro seran muy diversas, con personajes de todas las razas y orientaciones sexuales. Pero, todo será un calco de la sociedad y cultura occidental anglosajona de la ciudad de Los Ángeles, todos hablando inglés mientras van a un Starbucks.
Adiós, a las miles de diferencias étnicas, culturales, políticas, lingüísticas, gastronómicas etc... Que existen en el mundo.
¿Por qué es malo el sexo y la IA no puede generar nada relacionado? ¿Por qué no tiene permitido hacer cybersexo contigo? (es gracioso porque las fantasías sexuales fueron gran parte de lo que la gente generaba en AIDungeon, el GPT cuando todavía no se había popularizado).
Al final la respuesta es sencilla, la IA no puede estar en manos de grandes empresas que decidan arbitrariamente lo que sí, lo que no, y lo que se manipula. Open Source y cada uno en su PC que genere lo que le apetezca, lo demás es censura y poder empresarial inadmisible, vaya en la dirección que vaya.
“..Gemini de Google al menos ofreció alguna explicación , diciendo que mostrar sólo imágenes de personas blancas reforzaría “estereotipos y generalizaciones dañinos sobre las personas en función de su raza”..” (cuando le pedían vikingos)
Creo que el quid está más abajo con los buscadores copados ya por IA según unas instrucciones dirigidas que nos ofrecen búsquedas no relevantes pero sí relevantes para el dueño del buscador y sus propios prejuicios de lo que está bien y… » ver todo el comentario
Al final forzaran a la tropa a buscar en github la que mas le mole, revisar que no este lobotomizada, y montársela en algún VPS por 100 pavos al año.
Es literalmente como se llaman estos casos en el campo de las IAs
una alucinación de IA se asocia a la categoría de respuestas o creencias injustificadas
Cuando se fuerza a la IA a que tenga un sesgo, el resultado no es fortuito o injustificado; es exactamente lo que se busca.
Creada el 7 de julio de 2023
La palabra "alucinación" existe hace mucho tiempo. Las IA no alucinan,
Ahora que si quieres usar esa palabra para producir una sensación en el público......
Si quieres más información sobre el tema te recomiendo este vídeo Chema Alonso (que sobre IAs sabrá algo más que tú y que yo):
www.youtube.com/watch?v=gsnFXlLYt9w
Recomiendo todo el vídeo pero la parte sobre las alucinaciones empieza sobre el 17:10.
Claro.
Y se debe esencialmente a que NO son inteligentes, no a que sufran un transtorno mental. Son PROGRAMAS, es decir, ALGORITMOS. No saben que no saben.
Que hayan decidido llamarle así a fallos absurdos en los resultados del algoritmo es otra historia.
Se les llama así por motivos de marketing nada más.
Y eso lo decides tú?
"Que hayan decidido llamarle así a fallos absurdos en los resultados del algoritmo es otra historia.
Se les llama así por motivos de marketing nada más."
En un paper sobre inteligencia artificial publicado a principios del año pasado se habla sobre las alucinaciones en los modelos de lenguaje generativo:
As previously discussed in Section II, the reliability
… » ver todo el comentario
dle.rae.es/alucinación
En un paper sobre inteligencia artificial publicado a principios del año pasado se habla sobre las alucinaciones en los modelos de lenguaje generativo:
Marketing.
Hallucination refers to the generation of false or misleading information by such models.
Es decir, han decidido llamar a las contestaciones erróneas "alucinación", para que pareciera una "cualidad humana". Decir "respuestas erróneas o falsas", o simplemente errores no vende tanto.
No hace falta otro paper. Simplemente basta con sustituir la palabra "alucinación" por "respuestas erróneas, ilógicas y sin fundamento".
Márketing.
"Alucinar" proporciona símiles humanos y por lo tanto connotaciones positivas cuando hablamos de las IA. Resultados erróneos y faltos de lógica tiene connotaciones negativas.
ambién es llamada "inteligencia artificial" cuando no es inteligente.
Exactamente. Más de lo mismo, y mucho más antiguo.
"Sistemas Expertos", "Redes Neuronales" o "Modelos de Lenguaje" es una descripción mucho mejor.
Y para otro día te cuento lo de los zombies … flipas!
Pues eso es lo que se hace con lo de las "alucinaciones".
Lo que yo he dicho es que el uso de la palabra "alucinación" para describir respuestas erróneas, sin fundamentar y sin ningún sustento lógico por parte de la IA se hace por motivos de márketing.
En este caso el nombre está puesto como marketing. Y funciona.
El problema es el de todas las IAs txt2img, que es malo el etiquetado de las imágenes con las que se ha alimentado.
Luego han hecho un filtrado a partir del etiquetado y ha salido una cosa rara.
El tema del etiquetado es complejo porque son cientos de miles de imágenes etiquetadas de cualquier modo y ahora mismo da resultados aceptables por una cuestión de cantidad.
Pero eso, cómo dicen: Metes basura, sacas basura.
Un charlatán. Ni siquiera la gilipollez es nueva.
didn’t always recognize Black people, for example, or even labeled them as “gorillas.”
Un claro ejemplo de sesgo. Si por ejemplo confunde a un hombre blanco con un bonobo, pues eso es un error, luego confunde a un hombre negro con un gorila, entonces eso es racismo. El sesgo no es de la máquina, sino del que opina sobre la máquina.
Los intentos de… » ver todo el comentario
Ya sea por incomprensión, por corrupción, ... Desde hace años las tendencia empeora y, todavía peor, el que se da cuenta de esto saca su lado ludita y rechaza la tecnología. Cuando la única respuesta es que todo esto sea para la población similar a usar un destornillador.
Lo malo es que si queremos ver qué hacen las administraciones al respecto... Podéis echar un vistazo al trabajo de Jaime Gómez-Obregón. Es descorazonador
Esto quiere decir que, si por ejemplo diseñamos una IA para el diagnóstico de enfermedades de la piel, puesto que mayoritariamente encontraremos imágenes de personas de raza blanca, para que el diagnóstico sobre otras razas infrarrepresentadas sea igual de eficiente, deberemos sobrerrepresentarlas en el entrenamiento, es decir, alimentar la IA con cantidades equiparables de imágenes de las diferentes razas.
Esto lo viví yo hace unas semanas de manera curiosa. Usé Chatgpt para traducir unos subtítulos de una película, cuando le pegas textos muy largos, la IA va por tandas de x número de caracteres, y hay que indicarle manualmente que siga traduciendo. Pues bien, la primera tanda la hizo perfecta, pero con las demás se… » ver todo el comentario
Lo que nos vamos a reir cuando la única fuente para entrenar IAs sean contenido creado por otras IAs...
Vaya. Parece que una ia totalmente lógica y aséptica llega a las mismas conclusiones que alguien con dos dedos de frente solo asimilando los datos.
Habrá que castigar a esa ia para que deje de ser una ia fascista y veteropatriarcal