Antonio García Ferreras no es el fundador de Xataka, aunque la IA de Google llegue a decir en algún momento que sí. Es una lástima que Julio Alonso y Antonio Ortiz no reciban el suficiente reconocimiento. Ellos fueron los fundadores de esta página en noviembre de 2004, pero Google Bard no acierta. Tampoco lo hace ChatGPT.
|
etiquetas: ia , ia , oh
Entiendo el problema con ChatGPT, si no está conectado a internet no puede buscar información, y es mucho pedir que tenga guardados los lyrics de canciones. Pero si le pido a Bard que literalmente busque el lyric de X canción de Y grupo por internet... no sé. No me parece muy complicado, a priori.
Estamos aun en pruebas pero la verdad es que va a tener poco recorrido que lia más que arregla
¿Acaso ChatGPT proporciona enlaces —enlaces que sirvan, no páginas inexistentes o no pertinentes? Hay buscadores y no se quieren pisar el terreno… por ahora.
Bastante más desinformacion da xataca que Chat GPT
Salu3
Es muy burdo, pero van con ello.
Mi experiencia ha sido la que relato; quizá haya cambiado. La verdad es que no uso chatGPT desde hace semanas.
Pd.: Aunque en este caso sí que acierta y los tres enlaces apuntan a Xataka.
Con esto quiero decir que aunque ChatGPT te haya dado una vez la repsuesta correcta, no quiere decir que la respuesta que te vaya a dar las otras 999 veces también lo sea. Probablemente muchas si, por eso de que las respuestas se parecen y los margenes de errores se tratan de minimizar, pero no es 100% asegurado que ninguna respuesta sea correcta.
Bard claramente está en sus primeros pasos y le queda mucho que mejorar. Lo han sacado deprisa y corriendo para no quedarse atrás, empezar a probar y mejorarlo de forma iterativa con los datos que vayan recopilando.
No como Xataka...
1. Tetris
2. Tortilla de patatas con cebolla
3. Nuria Roca
7. Send nudes
8. Will Smith
9. pizza con piña
Las IAs de manera muy muy muy sencilla, lo que hacen es crear vectores por cada palabra, esos vectores se crean en multidimensiones (unos cuantos miles) y se basan en hacer operaciones matemáticas para ver la distancia entre 2 palabras para saber su relación (normalmente hacen el coseno entre 2 vectores)
Esto hace que la relación entre palabras venga de operaciones matemáticas, no de datos empíricos. ChatGPT es capaz de contestarte como si fuera la wikipedia pero no tiene guardada la wikipedia en su memoria, sino que la ha leido y ha hecho relaciones usando ese sistema de vectores multidimensional. Y un pequeño cambio en estas relaciones y va a contestar con alguna que otra alucinación (sobretodo fechas y nombres que son complejos de relacionar matemáticamente)
El tema que para generar esos vectores y esos puntos para trabajar, necesitas una gran labor humana para mejorar la información (al igual que a un niño que se le va enseñando y rectificando)
Por eso ocurren estas cosas, no es tan fácil como decir, coñe si le he pedido que busque esto y ya está y por eso es tan bueno las LLM (IAs conversacionales) en generar textos
writings.stephenwolfram.com/2023/01/wolframalpha-as-the-way-to-bring-c
Qué bueno! No lo había pensado.
jejejejeje
Hay que saber mucho para usarla correctamente
(pero tiene toda la pinta de que se va a quedar como esta)
Poco os ahorraría una IA "general", y daría problemas
Y se nos ocurrio (por decir algo que es que te enmarronan estas mierdas y dices oiga señor pero usted sabe lo q hago yo? ) meterlo pa las ayudas de errores pero ya te digo q la cosa no pinta bien, se inventa las movidas
Me da igual como le quieras llamar, pero el resultado de eso es igual al que haría el razonamiento de un humano a un nivel que no se había visto antes en ningún tipo de software, ahí es donde reside su mayor valor, no simplemente en el texto predictivo que usa para elaborar su respuesta.
En fin, no se os ocurra usarlo para nada serio
La veracidad de ChatGPT, por poner un ejemplo, viene mediante técnicas de aprendizaje por refuerzo sobre preguntas-respuestas muy comunes. Escalar eso es imposible, no son más que parches. Por eso se pueden circunnavegar haciendo la pregunta de una manera más rebuscada.
Hasta diría que lo que yo esperaría es que la IA con acceso a internet sea peor...
Ambas cosas las puede realizar ChatGPT 4 de forma coherente y exitosa. Por lo tanto, es innegable decir que puede razonar con éxito en bastantes ocasiones. Me da igual que sus razonamientos no funcionen internamente igual que un cerebro humano, eso es otra cuestión en la que yo no he entrado. La cosa es que tiene la capacidad para hacer perfectamente lo que define la RAE como 'Razonar'.
Y hablar de que "parece" que razona #59 casi que me parece entrar en un debate filosófico. Es como un alumno que saca sobrasaliente en los exámenes, ¿ha aprendido algo perfectamente o solo parece? ¿y si luego lo aplica en su trabajo perfectamente o es el mejor? Siempre puedes plantear eso de que "realmente" solo lo parece...
Y sí, pienso que tienes razón, pero no sé hasta qué punto esa afirmación es útil.
Sin embargo, cuando se resuelven, general la definición de "inteligencia" cambia, como ganar una partida de ajedrez. En parte tiene sentido, es como iluminar una cueva, tu piensas que con poner una lampara la iluminarías toda, pero cuando la pones, te das cuenta de que hay más cueva de lo que pensabas.
Si lee textos en los que dicen que Harry Potter tiene una varita con la que puede votar, ese texto no es más real que uno de Julio Verne en el que dispara una bala a la luna. Y ambos son relatos de ficción... Y nada de eso tiene que ver con razonar, ni con exponer un problema lógico que una persona resuelva con razonamiento y la máquina pueda reproducir ese razonamiento.
No me has contestado nada. Hasta podría decir que solo has generado texto que parece que te da la razón, pero no me contesta.
Bard isn’t supported for this account
If you’re signed in to a Google Workspace account, your admin may not have enabled access to Bard Opens in a new window .
Tú lo ves como la demostración que una máquina puede razonar, yo lo veo como una demostración de que ciertas paradojas filosóficas son tan endebles que se le pueden aplicar a un loro de repetición y concluir que dicho loro es una persona.
Razonar no siempre tiene que ser llegar a la verdad científica, sino exponer y ordenar ideas previas para llegar a una conclusión. Por ejemplo, hace 3.000 años en algunas civilizaciones podían llegar a la conclusión razonada de que cuando había rayos y tempestades era porque su Dios estaba enfadado con ellos, su conclusión era científicamente errónea, pero por supuesto que tenían la capacidad de razonar respecto a la información que poseían.
ChatGPT claro que no tiene la capacidad de demostrar empíricamente lo que sostiene, pero si puede perfectamente razonar a partir de la información con la que se le ha proveído.