Dado el problema de las alucinaciones, quienesquiera que sean los líderes de la IA en el futuro (ya sea Google, Microsoft, OpenAI o una nueva empresa) se verán tentados a “cumplir” sus propias reglas sobre lo que la IA debería y no debería producir, al igual que Google. hizo con Géminis. Este “relleno” vendrá inevitablemente de los prejuicios y la cultura de cada empresa y podría eventualmente restringir o al menos modificar drásticamente lo que la IA está permitida o dispuesta a mostrarnos, tal como hizo Google con Gemini
|
etiquetas: chatbot gemini ai , google , ia , 2001: una odisea del espacio , sesgos
Es literalmente como se llaman estos casos en el campo de las IAs
La traducción sería "podría llegar a" o "terminaría" o "llegaría".
“..Gemini de Google al menos ofreció alguna explicación , diciendo que mostrar sólo imágenes de personas blancas reforzaría “estereotipos y generalizaciones dañinos sobre las personas en función de su raza”..” (cuando le pedían vikingos)
Creo que el quid está más abajo con los buscadores copados ya por IA según unas instrucciones dirigidas que nos ofrecen búsquedas no relevantes pero sí relevantes para el dueño del buscador y sus propios prejuicios de lo que está bien y está mal
Nota: siendo un artículo generalista (menos mal que no nos lo han colado n el |Ciencia) el tema que comenta #2 (cuando lo descubrí en su día) sobre las alucinaciones que producen estos sistemas es flipante. Básicamente (y simplificando mucho)… si no sé algo me lo invento
Que puedes hacer que una IA tenga sesgos ya se sabe. El tema es que está claro que sesgos nos están intentando meter, sesgos que CNN considera beneficiosos, de ahí que la crítica en este artículo sea al peligro de que nos puedan meter otro tipo de sesgos que ellos no aprueban.
una alucinación de IA se asocia a la categoría de respuestas o creencias injustificadas
Cuando se fuerza a la IA a que tenga un sesgo, el resultado no es fortuito o injustificado; es exactamente lo que se busca.
Es precisamente la paradoja de la diversidad, lo que mata la diversidad cultural e histórica.
Todas las historias (IA) en el futuro seran muy diversas, con personajes de todas las razas y orientaciones sexuales. Pero, todo será un calco de la sociedad y cultura occidental anglosajona de la ciudad de Los Ángeles, todos hablando inglés mientras van a un Starbucks.
Adiós, a las miles de diferencias étnicas, culturales, políticas, lingüísticas, gastronómicas etc... Que existen en el mundo.
eventualmente - puede que pase o no
temporalmente - durante un tiempo, el que sea, pero se acabará
Esto es inevitable, la palabra parecida en inglés acaba contaminando con su significado a las palabras que se usen para traducirla. Prácticamente todo lo que leemos en castellano está traducido del inglés. Ahora esquiva eso.
Peor fue lo del japonés con la limitación de kanjis en los periódicos. Antes habia dos kanjis distintos con significados completamente distintos. Uno de ellos fue prohibido. Los periódicos empezaron a usar el otro, que se pronuncia igual, con lo que ahora tienen no sólo la misma pronunciación sino que además comparten un significado.
¿Por qué es malo el sexo y la IA no puede generar nada relacionado? ¿Por qué no tiene permitido hacer cybersexo contigo? (es gracioso porque las fantasías sexuales fueron gran parte de lo que la gente generaba en AIDungeon, el GPT cuando todavía no se había popularizado).
Al final la respuesta es sencilla, la IA no puede estar en manos de grandes empresas que decidan arbitrariamente lo que sí, lo que no, y lo que se manipula. Open Source y cada uno en su PC que genere lo que le apetezca, lo demás es censura y poder empresarial inadmisible, vaya en la dirección que vaya.
Y por aquí viene la problemática. Las técnicas de eliminación de sesgos están bien, y son muy útiles...en modelos supervisados. Estos modelos masivos como Gemini son, en un porcentaje altísimos, auto-supervisados. Esto es, no se etiquetan los datos, se usa la información ya existente, sin filtrar. Y meter control de sesgos ahí te provoca el problema inverso, salen cosas sesgadas en circunstancias en las que el sesgo es obligatorio.
Para resumir: lo que dice el artículo es correcto, se pueden sesgar los modelos para filtrar lo que te interese. Pero el motivo de este caso no es el que mencionas, si no algo más técnico. No es una agenda o algo por el estilo.
Se pueden hacer correcciones para combatir estos sesgos, pero hay que tener claro que es introducir otro sesgo, esta vez descaradamente deliberado. Y asi salen cosas como que la IA diga que hay que estar orgulloso de tu cultura... excepto si le dices que eres blanco, entonces no. Lo cual insulta a la inteligencia y acaba produciendo el efecto contrario al perseguido. Gemini ha sido noticia porque era muy descarado (nadie lo probo antes?) pero tienen mas peligro los sesgos "discretos"...
Al final forzaran a la tropa a buscar en github la que mas le mole, revisar que no este lobotomizada, y montársela en algún VPS por 100 pavos al año.
Pero si, traducir eventually como eventualmente es un "False friend" como decían mis profesores en mi niñez, de libro.
DeepL me la traduce a "finalmente"
El problema es el de todas las IAs txt2img, que es malo el etiquetado de las imágenes con las que se ha alimentado.
Luego han hecho un filtrado a partir del etiquetado y ha salido una cosa rara.
El tema del etiquetado es complejo porque son cientos de miles de imágenes etiquetadas de cualquier modo y ahora mismo da resultados aceptables por una cuestión de cantidad.
Pero eso, cómo dicen: Metes basura, sacas basura.
Creada el 7 de julio de 2023
Un charlatán. Ni siquiera la gilipollez es nueva.
didn’t always recognize Black people, for example, or even labeled them as “gorillas.”
Un claro ejemplo de sesgo. Si por ejemplo confunde a un hombre blanco con un bonobo, pues eso es un error, luego confunde a un hombre negro con un gorila, entonces eso es racismo. El sesgo no es de la máquina, sino del que opina sobre la máquina.
Los intentos de corregir ese sesgo inexistente en la máquina, inyectándole, esta vez sí, un sesgo a la máquina, obtienen los resultados que cabe esperar, vikingos negros y gilipolleces por el estilo.
El artículo es tendencioso. Véase:
biomedical devices measure blood oxygen levels for different ethnic groups, resulting in underdiagnosis of certain conditions for Black patients
Los cacharritos que miden el oxígeno en la sangre a base de iluminarte un dedo y mirar el color, ven un color distinto dependiendo de la piel, como es normal, pero la diferencia es de un 1%, insignificante, aparte de que quién hace un diagnóstico ya sabe corregir eso.
Pero el activista que ha escrito esta mierda solo sabe ver racismo ahí, porque es lo que quiere demostrar, no importa cual sea la realidad.
AI already has a well-known hallucination problem. In other words, sometimes AI makes things up.
Están degradando la palabra alucinación para que acabe por no significar nada. Lo descrito no es una alucinación, es un resultado normal. No es que la IA se invente el resultado en este caso, sino que se lo inventa siempre. Llamamos errores a cuando el resultado no nos gusta, pero para la máquina no hay diferencia.
Una alucinación, en cambio, es cuando la respuesta no tiene nada que ver con la pregunta realizada.
Ya sea por incomprensión, por corrupción, ... Desde hace años las tendencia empeora y, todavía peor, el que se da cuenta de esto saca su lado ludita y rechaza la tecnología. Cuando la única respuesta es que todo esto sea para la población similar a usar un destornillador.
Lo malo es que si queremos ver qué hacen las administraciones al respecto... Podéis echar un vistazo al trabajo de Jaime Gómez-Obregón. Es descorazonador
Y para otro día te cuento lo de los zombies … flipas!
Esto quiere decir que, si por ejemplo diseñamos una IA para el diagnóstico de enfermedades de la piel, puesto que mayoritariamente encontraremos imágenes de personas de raza blanca, para que el diagnóstico sobre otras razas infrarrepresentadas sea igual de eficiente, deberemos sobrerrepresentarlas en el entrenamiento, es decir, alimentar la IA con cantidades equiparables de imágenes de las diferentes razas.
Esto lo viví yo hace unas semanas de manera curiosa. Usé Chatgpt para traducir unos subtítulos de una película, cuando le pegas textos muy largos, la IA va por tandas de x número de caracteres, y hay que indicarle manualmente que siga traduciendo. Pues bien, la primera tanda la hizo perfecta, pero con las demás se inventó una película totalmente diferente, los diálogos seguían sincronizados, pero no tenían nada que ver con el original. Lo que más me alucinó es que esos diálogos inventados seguían teniendo cierta coherencia.
Al final lo arreglé copiándole los subtítulos manualmente por tandas, para que no hiciera más de una tanda a la vez, y quedaron muy decentes.
1. adj. Sujeto a cualquier evento o contingencia.
Sin.:
accidental, contingente, fortuito, ocasional, esporádico.
Lo que nos vamos a reir cuando la única fuente para entrenar IAs sean contenido creado por otras IAs...
La palabra "alucinación" existe hace mucho tiempo. Las IA no alucinan,
Ahora que si quieres usar esa palabra para producir una sensación en el público......
Claro.
Y se debe esencialmente a que NO son inteligentes, no a que sufran un transtorno mental. Son PROGRAMAS, es decir, ALGORITMOS. No saben que no saben.
Que hayan decidido llamarle así a fallos absurdos en los resultados del algoritmo es otra historia.
Se les llama así por motivos de marketing nada más.
dle.rae.es/alucinación
En un paper sobre inteligencia artificial publicado a principios del año pasado se habla sobre las alucinaciones en los modelos de lenguaje generativo:
Marketing.
Hallucination refers to the generation of false or misleading information by such models.
Es decir, han decidido llamar a las contestaciones erróneas "alucinación", para que pareciera una "cualidad humana". Decir "respuestas erróneas o falsas", o simplemente errores no vende tanto.
No hace falta otro paper. Simplemente basta con sustituir la palabra "alucinación" por "respuestas erróneas, ilógicas y sin fundamento".
Pues eso es lo que se hace con lo de las "alucinaciones".
Márketing.
"Alucinar" proporciona símiles humanos y por lo tanto connotaciones positivas cuando hablamos de las IA. Resultados erróneos y faltos de lógica tiene connotaciones negativas.
ambién es llamada "inteligencia artificial" cuando no es inteligente.
Exactamente. Más de lo mismo, y mucho más antiguo.
"Sistemas Expertos", "Redes Neuronales" o "Modelos de Lenguaje" es una descripción mucho mejor.
Lo que yo he dicho es que el uso de la palabra "alucinación" para describir respuestas erróneas, sin fundamentar y sin ningún sustento lógico por parte de la IA se hace por motivos de márketing.
En este caso el nombre está puesto como marketing. Y funciona.
Si quieres más información sobre el tema te recomiendo este vídeo Chema Alonso (que sobre IAs sabrá algo más que tú y que yo):
www.youtube.com/watch?v=gsnFXlLYt9w
Recomiendo todo el vídeo pero la parte sobre las alucinaciones empieza sobre el 17:10.
Y eso lo decides tú?
"Que hayan decidido llamarle así a fallos absurdos en los resultados del algoritmo es otra historia.
Se les llama así por motivos de marketing nada más."
En un paper sobre inteligencia artificial publicado a principios del año pasado se habla sobre las alucinaciones en los modelos de lenguaje generativo:
As previously discussed in Section II, the reliability of generative language models may be compromised by the phenomenon of hallucination. Hallucination refers to the generation of false or misleading information by such models. This problem is prevalent in natural language generation, and the distribution of misinformation and disinformation is a common manifestation of this phenomenon. However, measuring the prevalence of hallucination in natural language generation is a challenging task, as it typically necessitates the use of human judgment, which may be costly and resource-intensive. This is highlighted in [62] which describes the difficulty of measuring hallucination in natural language generation.
arxiv.org/pdf/2301.12867.pdf
Ahora, si quieres que es márketing y que tendría que usarse otro nombre, te sugiero que escribas otro paper con tus investigaciones.
En el movil Collins o Oxford.
Vaya. Parece que una ia totalmente lógica y aséptica llega a las mismas conclusiones que alguien con dos dedos de frente solo asimilando los datos.
Habrá que castigar a esa ia para que deje de ser una ia fascista y veteropatriarcal