edición general
176 meneos
1894 clics
Bard cae en el mismo error que ChatGPT aunque esté conectado a internet: se lo inventa absolutamente todo

Bard cae en el mismo error que ChatGPT aunque esté conectado a internet: se lo inventa absolutamente todo

Antonio García Ferreras no es el fundador de Xataka, aunque la IA de Google llegue a decir en algún momento que sí. Es una lástima que Julio Alonso y Antonio Ortiz no reciban el suficiente reconocimiento. Ellos fueron los fundadores de esta página en noviembre de 2004, pero Google Bard no acierta. Tampoco lo hace ChatGPT.

| etiquetas: ia , ia , oh
12»
  1. La IA te va a quitar el trabajo si es un trabajo repetitivo de bajisima cualificacion. La IA esta bien para hablar de generalidades pero cuando bajas sl detallese le ven las costuras. Y es normal, si pudieramos mirar el dataset que come nos echariamos las manos a la cabeza. Es la vieja historia.. shit in shit out. Va a llevar años entrenarlas y/o refinar el dataset.
  2. #2 comparar a feijoo con cualquier tipo de inteligencia me parece muy ofensivo, para la inteligencia, evidentemente
  3. #102 Ese es el problema, que se hace el tonto demasiado bien, pero su objetivo es jodernos vivos a cuantos más mejor. Y si para ello tiene que hacerse el tonto, se lo hace hasta estar en posición para jodernos.
  4. #60 GPT-4 dice "El caballo blanco de Santiago era de color blanco.". Al menos esa se la sabe.

    GPT-3.5 responde "El caballo blanco de Santiago es legendario y, según la tradición, es de color blanco. Su nombre proviene de la figura del apóstol Santiago, quien supuestamente lo montaba en la batalla durante la Reconquista española en la Edad Media. La expresión "caballo blanco de Santiago" se utiliza como una referencia icónica a este caballo blanco legendario."

    Bard insiste con la misma que mostraste :shit:
  5. #99 Y sabe inferir?
  6. #85 #99 Lo pasamos a la definición del libro entonces. De los tipos de racionamiento existentes, ¿cuántos domina una IA de este tipo?

    - Deductivo: lo hace razonablemente bien
    - Inductivo: no lo hace
    - Hipotético-deductivo: no lo hace
    - Transductivo: este lo hace bien

    Con esto en mente, ¿podemos considerar que una IA tiene capacidad de razonamiento? Para mí no
  7. #0 #14 Hay otra inteligencia artificial que da resultados más lógicos, porque realmente hace búsquedas en internet antes de responder (con el fundador de xataka acierta a la primera)

    you.com/

    #60 Pero, por ejemplo you.com te hace el siguiente razonamiento

    "if the horse is black, so the color of the horse is black" is a logical fallacy known as affirming the consequent, and cannot be applied universally to determine the color of Santiago's horse or any other object. It is always important to consider all available evidence to arrive at a reliable conclusion.

    (no lo intentes en español que parece que pierde su habilidad al traducir)
  8. #58 El problema que tiene es que necesita muchos datos de entrenamiento. Pienso que seria util en el caso de un foro, a partir de las respuestas de los usuarios, aprendiese cuales son las las soluciones.

    Como hace falta muchas interacciones de errores, yo veo que puede ser una empresa aparte especializada en esa asistencia tecnica.
    Si es una tarea de una empresa quita mano de obra de otras tareas y tiene poca interacciones para apredender.

    #77 Una IA puede funcionar con eso. Le das un feedback de cuando da la solucion correcta y con el tiempo se supone que ira acertando. Un paso intermedio mas profesional seria que la IA sugiriese y un profesional dieseel visto bueno y le dijes "intentalo otra vez"

    #104 Mi respuesta no es tan legendaria.
    El caballo blanco de Santiago es blanco. Según la tradición, se refiere a un caballo de color blanco que supuestamente montaba el apóstol Santiago durante las batallas en la Edad Media. Esta referencia se utiliza a menudo en canciones, cuentos y leyendas.

    La referencia se usa en canciones, cuentos y leyendas? Yo simplemente lo he oido como broma o trampa y no sabia si Santiago montaba a caballo o se metio en alguna batalla.
    Es posible que se lo haya inventado porque los caballos se usaban en batallas y haya mas textos donde se hable de usarlos en batallas que para arar el campo.
    CC#60
  9. #22 El principio basico de funcionamiento es intentar aprender cual es la siguiente palabra posible o probable.
    Hace nada crear un texto coherente sintetico parecia muy lejano y ahora cotidiano y nos parece poco. Pero es sorprendente que de respuestas que parezcan veridicas.

    Como digo el mecanismo pone palabras probables donde toca, pero muchas veces no acierta del todo.
    En tu captura, le han sonado empresas vascas y te las ha colocado en un formato que corresponde a la descripcion de un pueblo.
    Se puede equivocar poniendo jugadore en el equipo adecuado pero en la temporada adecuada o relacionando falsamente famoso con otros famosos.
    No se si hay otra solucion aparte de ir corrigiendo la IA cerrando la diversidad de respuestas.

    ChatGPT cuando le pregunto por codigo, me lo hace aproximado pero muchas veces no funciona del todo o falla, En otras cosas, acierta, pero no se si le describo bien los programas.

    Me ha ayudado mucho a encontrar pelis que me sonaban pero llevaba años sin conseguir saber cuales eran.

    chat.openai.com/share/32f6e20e-9b04-4081-9616-075149b87be8

    #36 #49 Yo no se si esperaban conseguir un resultado asi. Pero sorprendia que aprendiese a hacer sumas escritas cuatro + cinco igual a nueve. A veces se olvidaba de las llevadas. Tambien le escribia TLTR y te hacia un resumen de lo escrito, era un resultado inesperado.

    Hace años lo mas parecido que vi era una pagina de microsoft que te intentaba adivinar las siguiente letra de una contraseña que ibas escribiendo.
    pdm.com.co/sitio-web-gratuito-de-microsoft-que-busca-adivinar-sus-cont


    #59 #69 Es un ampliacion del problema de poner una palabra adecuada delante del otro. Si al final de un texto pones un pregunta y su respuesta, aprende lo que corresponde despues de la pregunta. que suele ser una respueta correcta.
    Si pones de pregunta ¿Quien se como a caperucita? puede saber que al preguntar quien debe dar un personaje del texto y si no esta enrenada adecuadamente te puede responder que el la abuelita o el leñador. #81
  10. #18 Entonces se puede presentar a las elecciones generales.
  11. #109 Sobre tu último parrafo, lo interesante es que contesta a preguntas que nadie había contestado antes, al menos muchas preguntas que requieren aplicar un razonamiento lógico, formulas matemáticas o físicas, etc, por lo menos a mi me sorprenden y es lo que se esperaría básicamente de un alumno.

    Sobre caperucita, pues lo mismo que si le preguntas a un niño, y es que a veces (hasta para cuando la engañas) parece un niño de 3 años.
  12. #106 Ya sé que es un argumento limitado, ¿pero las personas lo hacen bien? ¿las personas razonan? :troll: Diría que el razonamiento inductivo si lo aplica. Y en alguna pregunta, al carecer de datos aplica hipótesis, o mejor dicho suposiciones, pero es que una IA no puede falsear su conocimiento. Es como que tu vivieras en una habitación oscura, y todo tu conocimiento viniera de internet. No sabes lo que es el cielo o la tierra porque nunca lo has experimentado.
  13. #93 Simplemente es mi forma de decirte que efectivamente es una opinión, sí, llego a una afirmación, pero no me olvido de que no es más que una opinión. Así como recordatorio de que lo que has comentado tu es solo eso, una opinión. Es más bien un tema de humildad. :-) Te lo has tomado bastante mal, y todo para no decir nada...

    En el segundo párrafo llegas a una conclusión gratuita, ahora pareces una IA que no sabe razonar. :troll: ¿He dicho yo que demuestra que sabe razonar? Estás teniendo alucionaciones como tendría una IA y has demostrado que no sabes razonar.

    Y sí, noto cierta acritud, puedes intentar plantear más tus argumentos, antes que convertirlo en un ataque personal.
  14. #113 Creo que has sido tú el que ha visto un ataque donde no lo había. He utilizado el término de loro precisamente por la definición de loro estocástico que dan ciertos científicos al funcionamiento de chatgpt. En ningún momento estaba haciendo un ataque personal. Pero la cuestión de fondo es la misma: si un modelo entrenado tratando de predecir la palabra siguiente es capaz de pasar un test de razonamiento desde el punto de vista filosófico, es que el test no es tan complejo como podría parecer. De la misma forma que para nosotros el ajedrez es un juego extremadamente complejo, pero para una máquina es bastante simple, al ser un espacio altamente acotado y con reglas simples.
  15. #114 No sé, si tienes que utilizar la coletilla "sin acritud", por algo será. :-) No sigo más en el tema porque creo que igual está casi todo dicho.
12»
comentarios cerrados

menéame