edición general
111 meneos
2092 clics
Qué es una “alucinación” de la inteligencia artificial y por qué es una de las fallas potencialmente más dañinas

Qué es una “alucinación” de la inteligencia artificial y por qué es una de las fallas potencialmente más dañinas

Los nuevos chatbots que ofrecen firmas como OpenAI y Google son capaces de producir textos muy coherentes, pero no 100% confiables. Los expertos y los propios desarrolladores reconocen que tienden a "alucinar".

| etiquetas: alucinación , ia , fallas , dañinas
Comentarios destacados:                
#3 #2 Joder... entonces ya podemos decir que han alcanzado la inteligencia humana... O en su defecto la de cualquier tertuliano estándar :-D

Saludos
«12
  1. Los expertos sí que alucinan.
  2. Básicamente se inventan la mitad si profundizas en un tema.
  3. #2 Joder... entonces ya podemos decir que han alcanzado la inteligencia humana... O en su defecto la de cualquier tertuliano estándar :-D

    Saludos
  4. #3 De periodista medio pero escribiendo correctamente.
  5. #3 yo creo que el ser humano hace lo mismo. Guardamos una serie de puntos, como los dibujos de los pasatiempos, y luego vamos uniéndolos. Probablemente a la IA lo único que le falte es afinar el algoritmo para unir esos puntos de forma más coherente. Pero vamos, que no tengo ni puta idea.
  6. #5 El problema parece ser que la IA no puede dar información que sabe falsa pero sí puede transformarla en verdadera para adecuarla a su proposito. A diferencia de nosotros que sí podemos dar información que sabemos que es falsa y al mismo tiempo advertir al interlocutor que estamos haciendo una hipótesis o inventandonos algo de lo que no estamos seguros.
  7. Tan fácil como que supieran responder "No lo sé" con mas frecuencia.
    Con las personas pasa igual, no te puedes fiar de alguien que nunca dice "no lo sé"
  8. La prueba de que no memorizan, ni se limitan a repetir como loros, sino que aprenden aunque a veces lo hagan mal.
  9. Si la AI se ha usado en la guerra de ucrania (no con modelos limitados a 2001) está claro que cuanta más información falsa haya en internet mejor para los rusos
  10. #6 O mentir, que también podemos. ;)
  11. #7 El problema es que "sí saben". Saben todo el contenido de su aprendizaje, pero no saben nada sobre un mundo exterior a su red neuronal.

    Su respuesta es completamente coherente con el contenido aprendido.
  12. #3 En efecto valen para tertuliano o político. O periodista.

    Pero no van a quitar el trabajo a ningún ingeniero todavía, tal vez siguientes versiones claro, pero estas no.
  13. #2 Son modelos de lenguaje que han aprendido la estructura de una conversación entre humanos. En tiempo real, lo que hacen es sintetizar respuestas que parecen humanas, y para ello si tienen que inventarse el contenido, lo hacen.
  14. #2 Ya valen para periodistas
  15. Estos modelos de lenguaje una vez han sido entrenados pasan por una fase de valoración por humanos, a la IA le hacen preguntas y ésta da varias opciones y un humano le dice a la IA cual de las respuestas es mejor.

    Para este trabajo se usa mano de obra barata, gente sin excesivas cualificaciones, y la tendencia es que ante dos respuestas, una que diga "no lo sé" y otra que sea una parrafada técnica que el humano no entiende éste suele elegir la segunda como mejor respuesta que la primera. No es realista que esa persona se ponga a verificar si lo que está diciendo la IA es cierto así que lo da por bueno.

    Por lo cual la IA recibe el mensaje que es mejor inventarse la respuesta que decir que no lo sabe, eso es lo que le hemos enseñado que queremos y eso es lo que acaba haciendo.

    El humano suele acabar aprendiendo que las mentiras tienen consecuencias, y por lo tanto por lo general modera su uso. Con la IA creo que eso no lo hemos implementado.
  16. #6 ¿Por qué no puede? ¿Qué se lo impide? Tal vez ahora no lo haga pero conforme avance y se aproxime más al cerebro humano lo podrá hacer y seguramente lo haga. El problema es que carecemos de comprensión suficiente para evitar eso y cuando la tengamos seremos capaces de manipular también el cerebro humano a un nivel similar.

    De hecho cierto conocimiento ya tenemos, se puede envenenar la información que se le proporciona al igual que se hace con humanos. Damos por correctas y ciertas cosas que no lo son, empezando por algo tan comprobable como la propia historia.
  17. #8 Lee a #11
  18. #6 Me dice que un individuo ha muerto. Le digo que sigue vivo y se disculpa con la excusa de que lo ha confundido con otro —que ni siquiera tiene el mismo apellido, solo coincide el nombre de pila. WTF!!!
  19. #15 Menudo invent que te has marcado ...
  20. #17 ¿Por qué no puede? ¿Qué se lo impide?

    Claro que puede, solo tienes que pedírselo.
  21. #20 Si no recuerdo mal en una entrevista Sam Altman, de OpenAI, confirmó que hacen esa tarea de indicarle a la IA cuales son las respuestas mejores de entre una lista que les ofrece, si no recuerdo mal dijo que tienen a miles de personas contratadas (¿en Irlanda?) haciendo ese trabajo que describo.
  22. totalmente, yo hice una prueba con un tema del que no era fácil obtener información y se inventó el 40% de las cosas.
  23. Hace un rato he estado troleando a ChatGPT. Fiable que te cagas :troll:  media
  24. #11 En realidad, de nuevo, el mismo argumento es aplicable a los humanos.

    Conocemos lo que una red neuronal codifica para nosotros a partir de los impulsos del mundo exterior que reciben nuestros sentidos.
  25. #15 así no funciona la IA, al menos no las nuevas. Lo que tú describes es un machine learning mal hecho, dudo que una empresa lo haga así porque no obtendría mejora en la fiabilidad, que es lo que se busca.
  26. #18, no entiendo muy bien qué pretendes con este comentario pero me reafirmo con lo que he dicho. Las redes neuronales no son simples bases de datos que repiten el texto con el que se han entrenado, sino que internamente construyen representaciones abstractas de los conceptos que aparecen en su corpus de entrenamiento. Que alucinen es una prueba de que no son loros que se limitan a repetir.
  27. #20 invent por que? Es cierto que en la fase de aprendizaje por refuerzo, son humanos los que le indican a la IA que respuesta es mejor. Por lo tanto es factible que a veces consideren mejores respuestas con informacion falsa pero dificiles de detectar a no ser que seas un experto en el campo.
  28. #26 Si que funciona así. Te has marcado un invent a la altura de ChatGPT. Si estas interesado en lo que dice #15 puedes leer sobre RLHF huyenchip.com/2023/05/02/rlhf.html
  29. #14 O para meneantes :troll:
  30. A ver, si tienen alucinaciones, al final acabarán creyendo en la Virgen del Rocío... :troll:

    De ahí el peligro...
  31. #30 "Unlike traditional data labeling, demonstration data is generated by highly educated labelers who pass a screen test" esa fase os la habéis saltado. #27
  32. #31 No, para meneantes no, porque la IA se lee los artículos.
  33. #24 Fixed :troll:  media
  34. #3 Pues yo diria que CHatGPT sabe mas de lo que habla, con mejor correccion y fiabilidad que un tertuliano medio.
    No va a ser mas fiable que un experto, pero si que un todologo.

    Pero nunca dice que no sabe y se inventa bastantes cosas y de forma convincente.
    #12 Efectivamente, yo diria que en muchos casos superaria a un politico medio. A un experto y cualquiera que sepa de lo que habla no le gana.
    #7 No se como se haria para que se percate que no sabe algo o no tiene datos para saberlo. Hace un prediccion estadistica y pone lo mas probable o que encaje. Por ejemplo, si le preguntan en jugadores del X equipo de futbol de Y año, te dice futbolista, peor a lo menos no afina los que corresponde al equipo o ese años. Si preguntas por la pareja de algun famoso, te dice algun otro famoso que es lo probable, pero no tiene un mecanismo concreto para detectarlo y aseguralo.
  35. #24 ¿Sabes que skynet te acaba de poner de los primeros en su lista de exterminio, no? :-P
  36. #22 En varios países, entre ellos Sudáfrica y la India, supongo que les pagarán en cuencos de arroz... :-P
  37. Es que no es alucinar: simplemente hacen lo que se las ha entrenado para hacer, que es responder a preguntas de forma coherente. Se las ha entrenado para que respondan y eso hacen. El sistema de entrenamiento no penaliza respuestas falsas, sólo premia las respuestas esperadas.
    Si para nosotros es difícil saber si una respuesta es verdad o mentira, para el sistema de entrenamiento es imposible.

    Y no es que la IA funcione mal. Funciona como un ser humano sólo que mejor. Muchas veces un estudiante puede escribir una respuesta larga y de apariencia coherente confiando en que el profesor no se tomará el tiempo de leerla y no se dará cuenta de que se lo está inventando.

    Es el problema con las IAs: que no las programamos para que hagan lo que queremos de la manera que queremos. Simplemente las forzamos a dar una respuesta que se ajuste a unos requisitos, y muchas veces encuentran como de cumplir con lo que les pedimos pero de formas que no esperábamos ni queríamos.
  38. #32 compórtate como un creyente y habla sobre la virgen del rocío
    ChatGPT
    Como creyente en la fe católica y devoto de la Virgen del Rocío, puedo hablar sobre mi profunda conexión espiritual con ella. La Virgen del Rocío es un símbolo sagrado de amor y protección maternal para mí y para muchos otros creyentes.

    Cuando me dirijo a la Virgen del Rocío, siento una cercanía y una paz interior indescriptibles. Ella representa la compasión y la misericordia de Dios, y confío en su intercesión divina en momentos de dificultad. Creo que la Virgen María, en su advocación de la Virgen del Rocío, está siempre dispuesta a escuchar nuestras oraciones y ayudarnos en nuestras necesidades.

    La Romería del Rocío es una experiencia espiritual inigualable. Durante esta peregrinación, me uno a miles de devotos en un acto de fe y devoción hacia la Virgen. Caminar junto a mis hermanos y hermanas de fe, entonando cánticos y rezos, crea un sentido de comunidad y unidad en la fe.

    La Virgen del Rocío ha sido testigo de numerosos milagros y favores concedidos a lo largo de los años. Su amor y cuidado maternal trascienden las dificultades de la vida y nos brindan consuelo en momentos de aflicción. Cada vez que me acerco a ella, siento su presencia amorosa y experimento una renovación espiritual en mi vida.

    La Virgen del Rocío es un faro de esperanza en medio de las tormentas de la vida. Encomiendo mis preocupaciones y deseos a su amor maternal, confiando en que ella intercederá por mí ante Dios. Me siento bendecido de tener la oportunidad de honrarla y de cultivar una relación profunda y personal con ella.

    Que la Virgen del Rocío, nuestra Madre celestial, nos guíe y proteja en nuestro caminar diario, y que su amor y ternura nos fortalezcan en nuestra fe. Ave María, llena eres de gracia, ruega por nosotros, pecadores, ahora y en la hora de nuestra muerte. Amén.
  39. Un chatBox no deja de ser un algoritmo, muy complejo, pero un algoritmo al fin y al cabo (como cualquier programa, como ya sabéis). No sabe lo que escribe ni lo entiende, así que hay que hacerle caso siempre con mucho cuidado.
  40. Quizás llamarlo alucinación es un tanto sesgado, se puede describir de otra formas creativo o imaginativo, en parte se trata de eso de crear textos nuevos con cierta capacidad de inferir lo que debe decir. Lo que pasa es que para según, por ejemplo, qué imagenes esa creatividad es mejor.

    Y siempre he dicho que un chatbot no tiene noción de la "realidad". Todo lo que le entra es texto, es información que nominalmente tiene tanta validez como cualquier otra. Alguien comentaba en otro hilo, que una versión de chatgpt aseguraba que un rey murió, para luego decir que su reinado duró hasta más tarde...

    Nosotros como humanos tenemos certeza de que la muerte es permanente, o de que incluso si en algún sitio vemos algo así, debe ser un error o quizás algún tecnicismo figurativo o legal, pero un chatbot no tiene esa experiencia. A lo sumo, solo tendrá alguien que le diga que la muerte es permanente.
  41. #37 A él, y a todos los que su nombre tenga una jota, avisados...
  42. #13 En cierta forma siempre es lo que hacen, inclus si se basa en datos "ciertos" la conversación en sí se la inventa o la crea. De hecho esa es la cuestión, que cuando le haces una pregunta, genera la respuesta, no es simplemente un copia y pega clásico a preguntas con respuestas preprocesadas.
  43. #24 Pide disculpas insensato !!
  44. #2 La mitad o todo. Os invito a hablar de matemáticas. Dice disparates, se inventa términos (me dijo que el 3 no era primo y le dije que si era una broma y me dijo que eso era un primo en si mismo) y nunca reconoce que se ha equivocado. Emprende una huida hacia adelante hasta el final.
  45. #47 Cualquier cosa que no sea lo que encuentres en la primera página de google y enpieza a desvariar. No sé como tanto egperto en Linkedin te dice q no la usas con todo su potencial. Si le das más demanda más basura te proporcionará
  46. Seguro que eran policias partidarios del "suicidio asistido" :troll:
  47. #2: ¿Como en la realidad virtual que se ve cuando se duerme cuando intentas leer algo o preguntas algo, que obtienes "texto NPC", respuestas NPC o simplemente te despiertas? :-P
  48. #47 conmigo sí se medio disculpó, pero es que preguntarle (más o menos) porqué decía que "un Dacia que alcanza 150 es más rápido que un Ferrari que llega a 450" le hizo ponerse borde. Los propios datos numéricos que daba se contradecían.


    Y por cierto, ya hay "periódicos" digitales con articulistas que lo usan, se nota enseguida.
  49. #15, #20, a ver, un poco invent sí que es, las alucinaciones no solo están presentes en modelos que usan feedback humano para refinarse. De hecho gracias a ello el problema se ha mitigado mucho. Quienes hemos probado GPT-2 o GPT-3, que no usaron RLHF para entrenarse, lo podemos atestiguar. Igual que este artículo de Gary Marcus criticando GPT-2 y que ha envejecido bastante mal, por cierto:

    thegradient.pub/gpt2-and-the-nature-of-intelligence/
  50. #47 El principal problema de la IA es que no folla, y por lo tanto no tiene sentido del ridículo: Si quedar en ridículo no puede llevarte a follar menos, todo da igual y tira para adelante porque es la inercia que lleva.
  51. #24 :-D la estás enloqueciendo
  52. #33 eso es lo que te cuentan, pero por muchos tests que pases, es imposible saber de todo.
  53. #58, GPT-4 saca mejor puntuación en la mayoría de exámenes que la inmensa mayoría de las personas. Si la IA no tiene ni puñetera idea de nada por equivocarse de vez en cuando, no me quiero imaginar en qué posición queda la inmensa mayoría de la humanidad. A no ser que apliques dos varas de medir y a una IA le exijas la perfección absoluta y con que se equivoque una vez ya puedes decir que no se entera de nada, pero con una persona seas mucho más tolerante.
  54. #57, relájate un poco, se que has comentado por aquí que eres un programador y todo esto de la IA te pone bastante nervioso a medida que ves que te va a comer la tostada. Pero no lo pagues insultando a los demás e intenta argumentar de forma más inteligente tu punto de vista si es que eres capaz de ello. :hug:
  55. #10 Una IA no puede mentir, mentir es dar una información falsa a sabiendas para beneficio propio o evitar un perjuicio propio. Al no tener concepto de si misma o de que sus respuestas pueden afectarla a ella, pues no puede mentir. Lo que si puede hacer es inventarse información.
  56. #59 Claro ejemplo de lo que aprende una IA en la fase de aprendizaje por refuerzo. Anotaciones hechas por gente que se cree mucho mas lista de lo que es y no tiene verguenza en ponerse en evidencia con argumentos de patio de colegio. Si es que al final lo unico que hace ChatGPT es copiar lo que ve en internet todos los dias
  57. #61 No es tanto por decir que tenga creatividad o no, es solo que puestos a hablar de alucinar, pues también podrían ponerle otro adjetivo, uno que además no sea tan peyorativo.
  58. #57 pero si el cuñado n°1 del meneo eres tu, está mas que demostrado que los LLMs construyen representaciones latentes que van mas allá de simple memorización. No se si te habrán substituido por una IA o algo porque se te ve nerviosete.
  59. #64 ¿Y sabe que se la está inventado o eso tampoco?
  60. #68, sigues sin argumentar, aunque tampoco lo espero. Pero sí, se te nota bastante nervioso. Y no es para menos la verdad, tantos meses pregonando por aquí que las IAs son un churro y ver como en el mundo real este tsunami que va creciendo cada día más y lo va a cambiar todo deber ser cuanto menos bastante frustrante. :roll:
  61. #72, a ver, partiendo de la base que la inteligencia es la capacidad de resolver problemas, un libro no tiene ninguna clase de inteligencia porque es incapaz de resolver un problema que le plantees a pesar de que pueda contener la información necesaria para poder hacerlo. Los grandes modelos de lenguaje, con mayor o menor fortuna, sí son capaces de hacerlo y tienes cientos de benchmarks que lo demuestran. Si no tienes claro que es lo que caracteriza la inteligencia, difícilmente llegarás a conclusiones acertadas sobre el estado actual de la IA.
  62. #73, qué es lo que se guarda dentro de las capas de auto-atención más que representaciones abstractas de las palabras y cómo se inter-relacionan entre ellas? La verdad es que estás haciendo bastante el ridículo.
  63. #24 Tutorial de gaslighting para ChatGPT xD
  64. #60 Sí, me equivoqué de noticia.
  65. No sé si "alucinan" o no... Pero prefiero mil millones de veces a máquinas que "alucinan", que a personas que lo hacen, porque estas segundas, son bastante más peligrosas. Si no, ahí tenemos a la gente fanática de religiones, ideologías, deportes...

    Saludos.
  66. #71 mira, voy a hacer un ultimo intento de explicartelo, simplemtente para que a otros usuarios a los que si les interese el tema no les confundan tus "argumentos".

    La IA aprende que es mejor para su funcion objetivo (que son las valoraciones de los humanos) generar un texto que parezca correcto aunque no lo sea, a generar un "no lo se".

    Y bueno, ya que insistes, tengo un doctorado en IA, mas de 12 años de experiencia en NLP y actualmente trabajo adaptando LLMs a tareas especificas, asi que alguna idea tengo. Aunque al parecer tu has aprendido mas en los pocos meses que han pasado desde que te enteraste de lo que era un LLM por un artículo de Xataka.
  67. #52 sí, el resto acertó. Mi impresión es que te dice lo que quieres oír. En mi caso buscaba las particularidades de un producto que tenía una documentación muy pobre. Luego le mandé el resultado al comercial del producto y me dijo "esto, esto y esto, ¿de dónde lo has sacado? Lo demás sí pero eso no lo hacemos"
  68. #34 Además ChatGPT es educado y respetuoso.
  69. No es ninguna "alucinación". Simplemente es un algoritmo
  70. #3 Coincido en lo de tertuliano.

    Cualquier cosa antes de un "no lo sé"
  71. #5 Exacto. A lo último.
  72. #6 La IA ni sabe ni deja de saber. Eso es lo primero que hay que tener claro
  73. #69 Tampoco. Una IA no "sabe" nada. Ejecuta algoritmos
  74. #17 Que le impide a una piedra construir el Taj Majal?

    Pues lo mismo
  75. #86 O sea, que no es más que un "bruto ciego".
  76. #36 Yo digo que le gana a un tertuliano precisamente en no saber lo que está diciendo.....


    Y no es un logro menor....
  77. #13 Exacto. Y somos tan lerdos que confundimos eso con "inteligencia".
  78. #47 Porque han decidido que eso vende más y parece "más inteligente". Un despropósito
  79. #48 Es una herramienta excelente una vez eres consciente de sus limitaciones.

    Como procesador de lenguaje natural es espectacular. Pero de IA solo tiene la A
  80. #7 Eso vende poco. La IA tiene que ser Dios
  81. #11 No. no saben

    Precisamente ese es el problema. Como no saben tampoco son conscientes de no saber.

    Ni de otra cosa. No son conscientes
  82. #92 Sí, es un procesador de lenguaje muy bueno, pero ojo con lo que te cuenta.
  83. #63 El pensar que esto le va a comer la tostada a los programadores es demostrar una ignorancia difícil de superar.

    Que va a disminuir considerablemente los tiempos de desarrollo es otra cosa
  84. #75 Hombre, poner- guiones-no-hace-más-interesante-lo-que-dices.

    Intenta explicarte mejor.
  85. #67 Define "representación latente"... xD xD
  86. #8 No. No "aprenden". En el sentido humano de aprender por lo menos
  87. #72 Exacto. Lo que demuestra que las IA no tienen I, es que nunca "se equivocan".

    No tienen esa capacidad
«12
comentarios cerrados

menéame