cultura y tecnología
16 meneos
106 clics

Carles Sierra, director de inteligencia artificial del CSIC, sobre ChatGPT: "Imita, pero no entiende"

Entrevista a Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial del CSIC y presidente de la Asociación Europea de Inteligencia Artificial. "La gran aplicación de la inteligencia artificial en el mundo educativo es lo que se denomina la educación adaptativa: cómo adaptar los contenidos a cada individuo"

| etiquetas: carles sierra , director de inteligencia artificial del csic , chatgpt
  1. Pues eso le convierte en un Político en potencia ... eso es chungo
  2. Ojito que GPT-3 puede llegar a Rey.
  3. Pues ya puede quitar al 99% de los políticos y gobernar, peor no lo va a hacer
  4. Creo que es un titular desafortunado, en primer lugar porque habría que definir cual es la diferencia entre entender e imitar y en segundo porque induce a la confusión al público no experto en la materia dando a entender que se limita a repetir de memoria y de forma literal partes del texto que están en la base de datos con la que se ha entrenado.

    Si entendemos por entender (valga la redundancia), el que sea consciente de lo que dice, obviamente no entiende, pero si entendemos por entender el que sea capaz de relacionar conceptos que hay en la base de datos de entrenamiento y aplicarlos a nuevos contextos que no ha visto antes, yo diría que algo de entendimiento hay allí.

    Por ejemplo, si le pides que te explique con un símil futbolístico, el pensamiento de Platón, algo con lo que no ha entrenado y es capaz de hacerlo de forma bastante convincente, para mí, sí que podemos decir que hay cierto grado de entendimiento. Y eso creo que es crucial, porque nos indica que debemos profundizar en el diseño de estas arquitecturas y su forma de entrenarlas, para lograr inteligencias artificiales cada vez mejores.
  5. Pues a ver si el CSIC imita un poquito a OpenAI en materia de IA...
  6. Los niños aprenden imitando, y el problema no es cuando dan respuestas a tus peticiones sino cuando empiezan a hacerte preguntas.
  7. #5 como no se lo digan más clarito no te entienden
  8. No tiene ni idea de lo que significan muchas de las palabras porque le falta contexto real, pero incluso sin ese contexto yo sostengo que entiende perfectamente la relación entre los conceptos y por lo tanto entiende lo que se le dice y responde en consecuencia.

    Aunque básicamente sean cálculos estadísticos hiper complejos, la propiedad emergente puede aparecer tras cierto grado de complejidad.

    Nostros somos básicamente reacciones químicas hipercomolejas, que tienen hasta consciencia de existir.
  9. #4 Llegados a cierto punto, nosotros tampoco sabemos cómo entendemos las cosas. Y en ese caso somos indistinguibles de una IA.
  10. #9, este es el punto. Es como la gente que dice que el arte hecho por IA no tiene alma, pero son incapaces de saber si algo lo hizo un humano o no. Lo relevante es el desempeño final, crear buenos métodos para evaluar estos modelos, objetivos, medibles y comparables. Todo lo demás es metafísica.
  11. #8, exacto, yo me he leído bien la entrevista y me he alarmado un poco, porque de lo que empiezo a dudar es de si es el director de inteligencia artificial del CSIC el que no entiende realmente como funcionan las redes neuronales basadas en capas de auto-atención o_o , porque frases como esta están manifiestamente equivocadas: "Lo que está haciendo es buscar entradas históricas que el sistema ha aprendido, esas secuencias de frases a las cuales se parece más. Y, en aquella frase a la que le seguía, lo que hace es modificarla un poco para que siga a la que tiene delante en ese momento. Se está readaptando. Es como hacer una mezcla de todos los libros de la historia."

    En primer lugar, no está buscando entradas históricas de nada en ninguna base de datos, en todo caso se ha usado una base de datos para entrenarla y partir de ello ha construido una representación interna a nivel abstracto de los componentes con los que se ha entrenado. Y luego, por supuesto que no está mezclando trozos de texto, sino que a partir de lo que he comentado anteriormente es capaz de construir frases completamente nuevas.
  12. #4 Para empezar no es una inteligencia artificial ya que no pasa el test de Turing. Es un autómata determinista. No pude juzgar, ni sentir, ni formar una opinión propia  media
  13. #12, y qué tiene esto que ver con mi comentario? o_o
  14. #12 El test de Turing no es demasiado objetivo, por un lado, y tampoco está claro que sirva para discernir si un actor tiene inteligencia o no.
  15. #11 Igual es el señor director del CSIC el que está remezclando textos que ha leído previamente.
  16. #16, para nada es como tu dices. El embeding del texto se pasa como una de las entradas con las que se construyen las matrices de auto-atención. A partir de ahí la red construye internamente una representación de los conceptos que se aprenden a partir de cómo se interrelacionan las palabras. Hay tantos millones de parámetros y tantas conexiones que es imposible saber a ciencia cierta cómo construye estas representaciones, pero no son palabras, ni frases enteras, sino conceptos formados por grupos de palabras.

    Dar a entender como hace él, que lo que se hace es una búsqueda, sea en forma de embeding o en texto plano, en una base de datos en la que están las entradas con las que se ha entrenado es manifiestamente erróneo. No vale, en aras de simplificar la explicación, dar respuestas equivocadas.
comentarios cerrados

menéame