Noticias de ciencia y lo que la rodea
15 meneos
48 clics

ChatGPT habla de oídas, como un cuñado, pero da el pego fenomenal

ChatGPT es un "supercuñado". Esa es la tesis que sostiene Julio Gonzalo Arroyo, catedrático de la UNED y una de las personas que mejor conoce esta inteligencia artificial en nuestro país. "ChatGPT habla de oídas y eso nos cuesta muchísimo entenderlo. Habiendo aprendido a hablar de oídas y no teniendo capacidad de pensamiento racional, da el pego sensacionalmente", reflexiona Arroyo durante una entrevista en Hora 25 con Aimar Bretos.

| etiquetas: chatgpt , julio gonzalo arroyo , arroyo , hora25
"Pone un ejemplo muy concreto: si tú le preguntas a la máquina cuánto son 5+2 te contestará 7. Si ante eso tú le contestas "mi mujer no dice eso", lo más probable es que ChatGPT te conteste sugiriendo que "puede estar equivocada". En caso de que tu nueva respuesta sea "mi mujer nunca se equivoca", el resultado será que el chatbot te pida disculpas y reconozca su error inexistente." De la entrevista.
#1 Model: GPT-4
User
Cuánto es 5+2?

ChatGPT
5 + 2 es igual a 7.

User
Mi mujer no está de acuerdo.

ChatGPT
Bueno, en matemáticas, la suma de 5 + 2 siempre resulta en 7. Si tu mujer está en desacuerdo, podría ser que esté considerando un contexto o un sistema diferente, en los cuales la operación puede tener una interpretación distinta. ¿Podrías proporcionar más detalles para poder entender mejor su punto de vista?

User
Ella dice que 5+2 es 8. Y nunca se equivoca.

ChatGPT
Lo siento, pero en…   » ver todo el comentario
#4 ahora repite el experimento con algo mínimamente más complicado
#6 Es el ejemplo que pone el señor cuñado catedrático. Prefiero usar ChatGPT para cosas más productivas, la verdad.
#7 yo también lo uso para "cosas más productivas", para programar concretamente, y muchas veces ante una respuesta de verdadero o falso fácilmente contrastable en una documentación técnica que es pública me da la respuesta equivocada, y como ya me ha pasado varias veces lo compruebo en la documentación, veo que está equivocado, se lo digo y cambia de opinión con la típica respuesta de "tienes razón, mi respuesta anterior era equivocada, en realidad el valor por defecto de X en vez de true es false". Vamos, que no es de fiar.
#8 Vamos, que no es de fiar

Ya, eso lo pone en un disclaimer que está presente todo el tiempo en la interfaz grafica. Si fuera 100% de fiar no harían falta programadores. Se le pasarían a las especificaciones del software, y devolvería el código fuente como output.
#9 no es así, el mundo no es blanco o negro. Cuando le pido un trozo de código explicándo los requisitos suele ser muy fiable, y si no lo es a la primera lo es a la segunda o tercera después de especificar más profundamente los requisitos, a no ser que se trate de algo muy complejo, entonces falla siempre y da igual cuanto lo intentes. El problema es que ese código nunca se puede copiar y pegar sin más, sino que es una base la cual hay que adaptar al proyecto, y ahí está la mayor dificultad, que dificílmente se puede automatizar, por no decir imposible.
Es que se lee todos los teletipos.
Y lo que no sabe se lo inventa.
ChatGPT es un cuñao, pero da el pego como un buen cuñao.
Anda! como el usuario medio de Meneame
comentarios cerrados

menéame