edición general
207 meneos
3337 clics
Noam Chomsky: La falsa promesa del ChatGPT

Noam Chomsky: La falsa promesa del ChatGPT

Hoy en día, nuestros avances supuestamente revolucionarios en inteligencia artificial son, de hecho, motivo tanto de preocupación como de optimismo. Optimismo porque la inteligencia es el medio por el que resolvemos los problemas. Preocupación porque tememos que la variedad más popular y de moda de la Inteligencia Artificial -el aprendizaje automático- degrade nuestra ciencia y envilezca nuestra ética al incorporar a nuestra tecnología una concepción fundamentalmente errónea del lenguaje y del conocimiento.

| etiquetas: chatgpt , inteligencia artificial , chomsky
Comentarios destacados:                                  
#1 Estos ciclos de embelesamiento (y posterior desencantamiento) con respecto a lo que puede o no puede hacer la IA, y lo que va o no a implicar, ya se han dado con anterioridad, y no parece que esta vez vaya a ser diferente. Me quedo con lo que dijeron dos especialistas durante dos seminarios diferentes: uno recordó que estamos muy muy lejos de conseguir que una IA, robot mediante, sea capaz de hacer las tareas más básicas, y en cierto modo, más urgentes de solucionar en las sociedades actuales. Como cuidar de ancianos, todo lo que hace un cuidador o asistente sólo lo puede realizar un humano, y sin embargo, y paradójicamente, a pesar de su relevancia son trabajos muy poco valorados (y ahí también, añado, hay un elemento importante de la fiebre actual por la IA, convencer a media humanidad de que su trabajo es poco valioso y prescindible, y que como rechiste pondrán a una máquina inteligente a hacerlo; aunque esto no sea posible, es una manera de devaluarlo y poder pagar menos por ese…...
«123
  1. Estos ciclos de embelesamiento (y posterior desencantamiento) con respecto a lo que puede o no puede hacer la IA, y lo que va o no a implicar, ya se han dado con anterioridad, y no parece que esta vez vaya a ser diferente. Me quedo con lo que dijeron dos especialistas durante dos seminarios diferentes: uno recordó que estamos muy muy lejos de conseguir que una IA, robot mediante, sea capaz de hacer las tareas más básicas, y en cierto modo, más urgentes de solucionar en las sociedades actuales. Como cuidar de ancianos, todo lo que hace un cuidador o asistente sólo lo puede realizar un humano, y sin embargo, y paradójicamente, a pesar de su relevancia son trabajos muy poco valorados (y ahí también, añado, hay un elemento importante de la fiebre actual por la IA, convencer a media humanidad de que su trabajo es poco valioso y prescindible, y que como rechiste pondrán a una máquina inteligente a hacerlo; aunque esto no sea posible, es una manera de devaluarlo y poder pagar menos por ese trabajo). Otra autora insistía que la IA no es una ciencia, es una epistemología que se hace pasar por ciencia, y que muchos creen ciencia (lo cual también enlaza con el artículo).

    Y en línea con lo anterior, he echado de menos que en el artículo se indicara, en algún punto, que la IA no puede existir sin revisores y correctores humanos, a los que se paga dos duros y se suele explotar para que hagan lo que las IA no pueden hacer, revisando y corrigiendo contenidos, y expuestos a cosas inenarrables que hacen que muchos acaben afectados mentalmente o con síndrome de estrés postraumático.

    (se envió otro artículo en este sentido por aquí hace poco, creo recordar... y en su momento también fue muy llamativo que robots repartidores que se vendían como totalmente autónomos en realidad estuvieran supervisados por trabajadores desde latinoamérica, cobrando nada y menos...)
  2. Por si a alguien le interesa, aquí dejo el link a una conferencia que Chomsky y Marcus dieron hace unos meses hablando sobre estos modelos www.youtube.com/watch?v=PBdZi_JtV4c Personalmente, creo que el artículo es más completo, pero si hay tiempo, el vídeo no estorba.

    Resumiendo: estos modelos son útiles, pero no justifican las inversiones y las expectativas sobre la AGI o sobre el conocimiento de la mente humana.
  3. Yo no se qué va a conseguir la IA en los próximos años, puede que no tanto como se dice. Pero ya estoy impresionado con lo que hace ChatGPT 3 ahora. Es una herramienta muy útil para muchísimas cosas.
  4. Por favor, que dejen de llamar Inteligencia Artificial a estas cosas.

    Son avances brillantes, pero cómo bien señala Chomsky, es otro campo.

    Si Asimov levantase la cabeza...
  5. #1 De hecho, creo que lo que mejor podrán hacer es sustituir a los humanos en los famosos trabajos de mierda de los que hablaba David Graeber en su libro.
  6. Para ser disruptiva, no es necesario que la IA supere al ser humano en todas las tareas que precisan de inteligencia y conocimiento, únicamente ha de superarlo en el proceso de diseñar la próxima de generación de IA. A partir de este punto, que no parece nada lejano, se produce lo que se denomina Singularidad Tecnológica. Entonces sabremos si somos algo más que un simple eslabón en la evolución de la inteligencia. Vernor Vinge acertó incluso en el plazo, exactamente 30 años:

    edoras.sdsu.edu/~vinge/misc/singularity.html
  7. #5 Sí, en todos los que no son tan esenciales como nos quieren hacer creer, tal y como se comprobó durante el confinamiento...
  8. #3 Exactamente que cosas útiles hace? porque a parte de trabajos para escolares yo aún no le pillo la gracia
  9. #4 Eso es como decir que como ahora mismo no somos capaces de llegar a otras galaxias, a la exploración espacial mejor llamarla de otra manera
  10. Creo que vamos a tener que adoptar el concepto de Inteligencia Virtual, en el sentido de aparentar inteligencia.
  11. #8 Resolver consultas, que es para lo que ha sido diseñada. Recientemente por ejemplo, me ha resuelto varias dudas que era incapaz de encontrar solución en Google.
  12. #4 Es que sí lo es. Es la definición de lo que es la ciencia de la inteligencia artificial
  13. #1 Yo creo que va a ocurrir lo que pasa con todo, cuando se meta marketing y sus nuevas formas de "monetizar" la IA se irá todo al carajo. Os acordais cuando Google daba resultados en la primera pagina y no 15 anuncios, 5 resultados patrocinados y demas porquerias que te aparecen por el seo del algoritmo? Pues aqui va a pasar lo mismo con las consultas que se les haga y dejará de ser 100% util.
  14. Siempre he sido admirador de Chomsky, tanto en su faceta de lingüista como en la política, pero mucho me temo que en este caso le están pesando los 94 años que tiene y la consiguiente dificultad para adaptarse a lo nuevo.

    Este artículo no tiene mucho recorrido desde el momento en que todos los ejemplos que ponen de cosas donde supuestamente los modelos de lenguaje fallan, resulta que los pruebas y aciertan.

    Aquí hay un hilo donde lo muestran (había alguno aún mejor, pero ya fue hace unos días en Twitter y no lo encuentro ahora mismo... pero éste da una idea):

    twitter.com/jayelmnop/status/1633635146263052288
  15. #11 me encantaría algún ejemplo de verdad porque todo lo que veo por ahí son cosas que resuelves con google precisamente
  16. #8 Por ejemplo, a mi me ayuda MUCHO a prepararme reuniones, para sacarme guiones de documentación y para explicarme cosas, alguna vez lo he usado para que me resumiera textos bastante largos. No se, la verdad es que a mi me ha ayudado basatnte.
  17. #4 Te recomiendo la lectura de esta página de la Wikipedia para que revises tu definición de inteligencia artificial: es.wikipedia.org/wiki/Efecto_IA
  18. Este lo que tiene es resquemor, por que esta IA no se basa en ninguno de sus estudios, es más refuta mucho de lo que estaba preestablecido sobre la formación del lenguaje natural, pero dejemos que conteste la propia IA:

    Es importante señalar que las teorías de Chomsky se centran en la estructura gramatical del lenguaje y la capacidad innata del cerebro humano para adquirir un lenguaje complejo. Aunque estas teorías son interesantes e importantes en el campo de la lingüística, el enfoque actual en el procesamiento del lenguaje natural se centra en técnicas de aprendizaje automático y estadísticas para entrenar modelos de lenguaje, que no dependen necesariamente de la estructura gramatical profunda de un lenguaje.

    En resumen, aunque el trabajo de Noam Chomsky ha sido importante en el campo de la lingüística, mi diseño y funcionamiento como modelo de lenguaje se basan en una variedad de técnicas de aprendizaje automático y no en sus teorías específicas sobre la estructura gramatical del lenguaje.
  19. #1 Te equivocas. De hecho ese es quid de la cuestión. Que ha habido un cambio brutal en los últimos 5 años precisamente porque se ha empezado a trabajar con aprendizaje no supervisado en unas escalas muy bestias. Lo más increible de estos modelos es que han aprendido prácticamente solos. Porque sí es cierto que hay una fase final en las que un humano plantea "interacciones correctas". Y una posterior que valida las respuestas y da un feedback sobre lo que es una buena respuesta y una mala. Pero estas dos fases son infinitesimales en tamaño en comparación con la inicial. Son refinamientos. No implica tener un millón de esclavos etiquetando datos, que creo que es a lo que te refieres.

    Lo último no deja de ser un sistema en pañales que se complementa en base a trabajo humano. Eso no es representativo de nada.

    Realmente, si pongo en perspectiva un día mío, sumo tantas interacciones con IAs que yo mismo me sorprendo. Creo que nos quedamos en la anécdota o intentamos entender lo que está pasando con los marcos mentales del pasado. Esto va por un lado muy diferente, y está yendo muy rápido. No vamos a tener al equivalente del Yo Robot de Asimov, pero vamos a tener asistentes en casi cada faceta de nuestra vida. Y repito, eso va muy rápido.
  20. Estas reflexiones me huelen a antropocentrismo desbocado y creo que van a envejecer muy mal. Yo leo a diario textos escritos por seres humanos de los que se les supone leídos y con dos dedos de frente. A menudo están plagados de errores conceptuales. Se me hace cada vez más dificil saber si están escritos por un ser humano o por GPT3. Veo muy claro que lo que tenemos hoy ya es una revolución de tres pares de cojones comparable a revolución que supuso la invención de los buscadores de internet y el acceso universal al mismo. A mi parecer, el negar que eso va a cambiar radicalmente muchos comportamientos humanos incluída la educación, la forma de trabajar y hasta las relaciones interpersonales es, una de dos, no querer verlo, o no entenderlo. A los románticos humanistas esto les va a costar de tragar, no lo dudo. La cuestión no es que estos algoritmos sean muy humanos o no, sinó que los humanos somos más predecibles y más mecánicos de lo que a muchos les gustaría.
  21. #9 Falso.
    Es cómo decir que con un avión se puede llegar a otras galaxias.
    Chomsky ya está señalando que se está construyendo aviación, no astronáutica.
  22. #12 [citation needed]
  23. #17 Efectivamente, incluso un programa para jugar al Go es Inteligencia Artificial.

    en.wikipedia.org/wiki/AlphaGo
  24. #15 Dudas muy concretas. Por ejemplo, el origen de los elefantes que usó Aníbal en su campaña europea. Otra, el nombre de una serie de animación francesa de los 80, sobre un niño de origen español que viajaba a América y había tecnología futurista de una civilización perdida.
  25. #13 Exactamente. Pasará el mismo proceso que ocurre ya con las redes "sociales".
    hypernoir.com/el-enmierdamiento-de-tiktok/
  26. #11 si tuvieras acceso a las mismas fuentes que chatgpt podrías obtener la misma información sin que la ia la filtre para ti.

    Si todos los libros y publicaciones de física estuvieran digitalizados y se pudiera buscar por cadenas de texto de forma ágil, eso sí sería muy útil para toda la humanidad, no sólo para una ia. El día que se auditen las fuentes de datos que utilicen las ias, habrá buenas multas por infracción de copyright.

    Google se descarga copias de internet y hace búsquedas en dichas copias. Así que si un libro con la información que buscas está en las fuentes de chatgpt pero no en internet, ahí tienes tu respuesta.
  27. #17 Según ese argumento, cualquier cosa que no supere un test Turing puede ser Inteligencia Artificial.
    :shit:
  28. #13 Creo lo mismo, Ahora le puedes preguntar al famoso chat por los acordes de tal canción y te los muestra, dentro de poco no veo descabellado que a la respuesta añada algo como: "Ademas sabes que para grabar esta canción se usó un amplificador "Acme Sound Terror 150" como el que ahora mismo esta de oferta a solo 499eu en esta web."
  29. #2 no justifican? porqué? yo creo que van a generar un negocio órdenes de magnitud mayor.

    Las expectativas sobre la agi no las veo relevantes, no es necesario llegar a una agi para que tengan sentido y utilidad.
  30. #8 Teniendo en cuenta que se está extendiendo como la pólvora para usarse en mil sitios..

    Generación de código, generación de contanido, bots conversacionales, automatización de tareas, creación de cuaquier cosa que tenga base de lenguaje (descripciones, resumenes, traductores, ideas para arte...).

    Yo le daría una vuelta.
  31. Primera vez que leo a Chomsky hablando sobre algo relacionado con su campo del saber. Imagino que se habrá dado un golpe en la cabeza y cuando se le pase, volverá a hablar del anticapitalismo hasta el fin de sus días, como viene siendo su tónica habitual.

    Por otra parte, su teoría es muy buena. Por qué no prueba a codificarla y se comprueba si es cierta o no? Que pasa, que no es falsable? Si no se puede comprobar, no es ciencia, es ideología... Mmmm
  32. #11 Todas las veces que lo he usado para resolver dudas se ha inventado la mitad de la respuesta. He decir que era todo cosas bastante técnicas. No es capaz de decir no lo sé.
  33. #11 para cosas asi genial, pero yo no la usaría para algo importante, porque muchas veces se inventa la respuesta literalmente. El problema es que lo hace con un léxico y un contexto tan bien hecho dentro de la conversación que parece una respuesta real... es una IA conversacional, hay que comprobar la veracidad de cada respuesta. 
    Sobre todo cuando no le das un conjunto de datos finito sobre los que explorar para generarte la respuesta.
    fuente: Soy programador y la he estado usando últimamente para hacer pruebas de concepto en una app famosa... mi novia además trabaja en procesado de lenguaje natural y conoce bastante bien este tema y me lleva advirtiendo un tiempo del mal uso que se le va a dar o se le esta dando ya.
  34. #27 Es que el test de Turing no se propuso para distinguir lo que es inteligencia artificial de lo que no lo es... se propuso para distinguir a una inteligencia artificial que alcanzara un nivel de inteligencia equivalente a la humana.

    Eso puede verse como un objetivo último de la inteligencia artificial, pero todo lo que se desarrolla por el camino también es inteligencia artificial.

    Lo contrario sería como decir que si los médicos no consiguen curar todas las enfermedades y hacernos inmortales, lo que hacen no es medicina.
  35. #8 Nada ni nadie se inventa las cosas mejor.
  36. Completamente de acuerdo con Chomsky, son estupendas herramientas pero:

    - No son capaces de resolver juegos tontos de lógica, ya que no poseen un modelo interno lógico que permita (eso en IA que llamamos meta-aprendizaje) y sin esa parte yo creo que llega a su límite pronto. Y en ese punto es en el que incide Chomsky, él lo comenta por la parte del lenguaje, pero no es solo en ese punto.
    - No son de fiar, puesto que su prioridad es sonar razonables, aunque te mientan en la cara (ya he visto compañeros investigadores a los que les han pedido papers que no han escrito porque el ChatGPT se los ha inventado, o inventarse librerías inexistentes para programar). Y eso no me parece correcto, debería de estar más claro ya que habrá usuarios que no lo sepa. Yo espero que creen modelos aprendidos únicamente de fuentes algo más fiables para poder usarlo de forma segura (y a poder ser disponibles de verdad, como Stable Diffusion).
  37. #4 Bueno, creo que la Scifi de Asimov no es hoy por hoy un buen ejemplo de lo que será la robótica del futuro, lo de las tres reglas es una visión heurística que no tiene nada que ver con lo que serán las IA en el futuro.

    Los predictores de texto como ChatGPT son inteligencia artifical, no confundir con lo que familiarmente llamamos inteligencia.
  38. #15 Pregúntale a Google cosas como "dime cual debería ser mi facturación mensual como autonomo para que se equipare al salario percibido como empleado". Esta fue una duda que me plantearon hace un tiempo y chatGPT me ha dado una buena respuesta. En Google ha sido un largo listado de webs que tenía que revisar una a una y ninguna me daba lo que buscaba. Se acercaba pero no era tan claro y directo como con chatGPT
    #11
  39. Interesante, como cualquier opinión de chomski.

    Me gustaría saber qué opina @sorrillo sobre el tema...xD
  40. Se habría ahorrado un porrón de texto diciendo, "ChapGPT es un predictor de texto", y ya está, lo sabemos todos, es divertido, es útil en algunos aspectos, inspirador, y ya.
  41. #34 Lo que está haciendo esa página de la wikipedia es una inversión de la carga de la prueba.

    Yo no debo demostrar que no es una Inteligencia Artificial, es el creador quien tienen que demostrar mediante el test Turing o lo que sea.

    El objetivo último de la homeopatía es curar, ¿Es por ello medicina?
    El objetivo último de la alquimia es transformar la materia ¿Es por ello química?

    Sus objetivos no son prueba de nada porque la metodología es dudosa.

    Chomsky hace lo mismo, señala que la metodología (Basada mayormente en estadística) es dudosa porque señala que la inteligencia funciona de manera diferente.
  42. #31 A ver, escribe mucho sobre su campo del saber, acabo de consultar, y tiene 193 documentos en revistas científicas, otra cosa es que los que no trabajemos en esos campos no lo leamos. Sobre su teoría, ¿cómo codificas una teoría sobre el aprendizaje humano del lenguaje? Si sabes hacerlo, avisa.
  43. #32 Fallo de programación...intencionado, sin duda
  44. #1 Es que el artículo no va de lo que podrá o no podrá hacer la IA en general, sino del bombo que se le está dando a los large language models. Es específico de eso.
  45. #37 Lo de las 3 reglas es una propuesta novelística al problema de la Inteligencia Artificial, no una propuesta científica.

    Inteligencia Artificial será cuando sean autónomas y tengan sentido crítico.
  46. #39 Paso de leer el tochaco, entre líneas he visto esto:

    Pero ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden “aprender” (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a los que tienen un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con la misma facilidad. Mientras que los humanos estamos limitados en el tipo de explicaciones que podemos conjeturar racionalmente, los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como que es redonda. Sólo negocian con probabilidades que cambian con el tiempo.

    Es charlatanería barata. Está hablando del alma aunque no la cite, está diciendo que nosotros tenemos una característica que nos hace especiales y que ChatGPT (y versiones posteriores) no pueden tenerla. Típico discurso en el que se basan las religiones.

    Si hay algo en el artículo que tenga más sustancia que lo que he citado indícalo y lo comentamos.
  47. Durante muchos años facebook, twitter y otras redes sociales han filtrado la realidad para mucha gente, lo cual no era nuevo, ya que en todos los países parecía que algo sólo pasaba si lo contaban los principales medios.

    ¿Qué fue de la España de ABC y El país?, dos prismas de la realidad, dos maneras de contar lo que pasa, dando el foco a unos temas sobre otros, así como obviando una gran parte.

    Pues las IAs como chatgpt están haciendo eso mismo. Filtran la información existente y generan respuestas adaptándose a lo que hay en internet. ¿Qué pasa si una fuente errónea gana prioridad sobre otra fidedigna? La IA dará información incorrecta, será inútil hasta que el revisor humano detecte el error y alguien lo corrija, probablemente un programador humano. Para algunas personas chatgpt será marxista y para otra puede que facha. ¿Aceptará alguien de derechas que se llame inteligencia artificial a algo que genere información que no sea de su cuerda?

    Pese a que el foco está en chatgpt, hay muchos tipos de IAs que están ayudando en muchos campos. Optimizar procesos, encontrar patrones y realizar predicciones en base a modelos son algunas tareas en las que una IA puede ayudar a la humanidad.

    Ahora mismo hay dos límites claros que delimitan las capacidades de una IA: las fuentes de datos y la capacidad de procesamiento.

    En cuanto a los trabajos "básicos", como cuidar de ancianos o limpiar en residencias, dudo mucho que se pueda encomendar dichas tareas a una IA. Hay demasiadas cosas a tener en cuenta. ¿Cómo funcionaría chatgpt en modo voz con alguien con demencia?, ¿cómo funcionaría un robot con IA en una situación que requiere el uso de la fuerza porque un residente se pone agresivo?, ¿y cómo detectaría una mentira como decir que ya ha tomado una medicación o que no la ha tomado todavía?
  48. #15 “Quién es M.Rajoy” www.meneame.net/m/Artículos/chatgpt-quien-m-rajoy

    “Escribe una carta a mi pareja diciendole que me siento mal por sus celos excesivos”

    “Escribe una carta a mi comunidad de vecinos por los ruidos molestos de las cañerías”.

    “Escribe una carta al ayuntamiento quejandote del estado del pavimiento de mi calle”

    “Escribe una carta entusiasta a mis empleados invitandoles a un fin de semana a toledo y propon un itinerario de viernes a domingo”

    Etc
  49. #18 Excelente uso de ChatGPT para estructurar una falacia ad-hominem
    Felicidades
  50. #14 Pues yo creo que lo que dice es acertado.

    Con qué no estás de acuerdo exactamente?

    Señala un par de cosas
  51. #20 Me parece que tu razonamiento hace aguas.

    En lugar de hablar del olor de las nubes, que te parece erróneo en la exposición de Chomski?
  52. #43 Russell y Norvig definen =|= La ciencia define

    Ya se ve en la Wikipedia inglesa cómo todavía no hay consenso: en.wikipedia.org/wiki/Artificial_intelligence#Defining_artificial_inte
  53. #27 El Test de Turing es una prueba diseñada para evaluar si una máquina puede exhibir un comportamiento inteligente similar al de un ser humano. El objetivo de la prueba es determinar si un observador humano puede distinguir entre las respuestas de una máquina y las respuestas de un ser humano.

    Aunque el Test de Turing es una prueba importante para evaluar la capacidad de una máquina para simular el comportamiento humano, no es la única medida de la inteligencia artificial. Hay muchas otras formas de definir y medir la inteligencia artificial, incluyendo la capacidad de aprendizaje automático, el procesamiento del lenguaje natural, la toma de decisiones y la resolución de problemas.

    Además, aunque una máquina que supere el Test de Turing se consideraría una forma de inteligencia artificial, no significa necesariamente que esa máquina tenga una inteligencia o conciencia similar a la de los seres humanos. La capacidad de una máquina para superar el Test de Turing se basa en su capacidad para simular comportamientos humanos, pero no necesariamente en su capacidad para comprender el mundo de la misma manera que lo hacen los seres humanos.

    En resumen, si bien superar el Test de Turing es una medida importante para evaluar la capacidad de una máquina para simular el comportamiento humano, no es la única medida de la inteligencia artificial y no necesariamente implica una comprensión completa del mundo y una conciencia similar a la de los seres humanos.
  54. #26 Claro, si tuviera tiempo. A ChatGPT le digo "El nombre de una serie de animación francesa-japonesa sobre un niño español que viaja a América y descubren tecnologías avanzadas de una civilización perdida." Y me da en dos segundos la solución que yo era incapaz de encontrar en google. Lo mismo con "¿Cuál fue el origen de los elefantes que usó Aníbal Barca? ¿Fueron criados en cautividad o cazados y domesticados?"

    Respuestas inmediatas de las cuales no hay nada directo en google. No existen páginas dedicadas a esos temas en concreto.
  55. #47 Pues el tochaco dice cosas interesantes que no se parecen en nada a hacer una selección de líneas interesada.

    Y no. No está hablando del alma, aunque sea tu obsesión. Y si te parece charlatanería, podrás rebatirlo sin problemas. Puedes usar chatGPT para ello....xD

    Y desde luego si alguien sabe de lo que habla cuando se trata de lenguaje es Chomski
  56. #56 Pues el tochaco dice cosas interesantes que no se parecen en nada a hacer una selección de líneas interesada.

    Cita lo que te parezca interesante y quizá creas que no compartiría y lo comentamos.
  57. #14 Me parece a mí que Chomsky se está metiendo en un terreno complejo con mucho desconocimiento por su parte. Muy atrevido el artículo y con muchas simplificaciones.
  58. #19 Ni un humano aprende mucho prácticamente solo. ChatGPT y demás han tenido a su alcance una cantidad de datos brutal y también gran cantidad de datos (desde mi punto de vista no los suficientes) de lo que se considera "respuestas correctas", y todo esa información la generó millones de seres humanos.
    Por otro lado, no veo yo, a corto plazo, que podamos tener IAs entrenadas para cada faceta de nuestra vida. Las IAs siguen siendo entrenadas para tareas muy especificas.
    Y lo mas importante, aún veo muy muy lejano el momento en que una entienda lo que hace. Por resumirlo con un ejemplo sencillo, una IA la entrenas con las tablas de multiplicar, pero no sabe lo que es multiplicar, no entiende el concepto. Es mas, dado que no entiende el concepto, en cuanto le presentas un dato que no entra dentro de lo esperado, se va a la mierda. Volviendo al caso de multiplicar, tú a la IA le enseñas las tablas de multiplicar, todas menos cuanto es 2x5 y joder, que bien va cuando le pido 2x5, no lo entiende pero me da la respuesta correcta, a pesar de que no le enseñe ese valor en concreto. Pero aquí llego yo y como ella no sabe ni siquiera sumar o restar o si quiera que es un número, nadie le enseñó ni nunca entendió lo que hacia (que en realidad no es mas que ciertos casos específicos de la suma), y le digo que quiero saber cuanto es -2x5 o 32x1 y explota. La realidad es que ni siquiera entiende lo que es un número, no sabe lo que es ese signo -. Para ella solo existían 10 posibles representaciones de entrada (0 a 9) ¿Qué coño es eso de 32? Cuando no pase eso es cuando yo creo que podemos, de verdad, empezar a hablar de IA. Y luego quedará el siguiente gran paso, que sean capaces de proponer ideas nuevas o deducir cosa nuevas según lo que ya conocen, eso ya sería la hostia.
  59. #54 El Test de Turing sirve para señalar que un sistema de Inteligencia Artificial tiene que ser complejo.

    Y a mí me sirve para señalar que la página de la wikipedia que me han presentado es una memez, porque según esa falacia un algoritmo de esos que ponen en los móviles para sacar mejores fotos (Si, esos que anuncian cómo IA) es IA. Cuando solo es un algoritmo. Complejo, pero un algoritmo años luz de incluso ChatGPT 1.0.
  60. #57 Bueno, podemos comentar algo de lo que ya leíste...

    ¿Crees que ChatGPT es capaz de diferenciar lo posible de lo imposible ?
  61. #55 el tema es si te puedes fiar de la respuesta, pero es muy convincente. He comprobado con temas que domino bien que a veces se inventa las cosas, pero te convence.
  62. #33 Cierto, y a mi a veces también me da resultados falsos. Y encima te los referencia con enlaces falsos xD

    Por eso siempre primero compruebo lo que me dice. Una vez que ya tengo una solución es mucho más sencillo verificiarla que intentar buscar la solución desde cero.
  63. #60 ¿Machine learning no es AI?
  64. #61 De forma equiparable a como pueden hacerlo los humanos, sí.

    Por eso cuando le pides que te escriba un script que haga algo por lo general ese código no contiene peticiones imposibles al sistema ni a la realidad, en ocasiones puede ocurrir, se le hace notar el error, se disculpa y lo corrige.
  65. #32 ¿todas las veces? ¿Puedes darme algún ejemplo concreto?
  66. #14 Teniendo en cuenta cómo ChatGPT es una caja negra, que ya ha sido modificada para dar respuestas Ad hoc (Cada Jailbreak que he probado ha sido corregido a los pocos días), ese test no es prueba de nada. Porque seguro que han leído a Chomsky ¿Quién no asegura que no se ha programado esa respuesta (de nuevo)?

    Igual el turco tienen más enanos ajedrecistas dentro de lo que parece.

    Tendrían que buscar un ejemplo equivalente al de Chomsky, no hacerle la misma pregunta.
  67. Es triste decirlo pero CharGPT con todos sus errores tiene un nivel de razonamiento y moral bastante superior al del español medio y a la mayoría de sus políticos. Por mi que nos gobierne el algoritmo.
  68. #65 De forma equiparable a como pueden hacerlo los humanos, sí.

    Pues hay extractos de conversaciones que demuestran que no...

    Ya buscaré alguna.
  69. #47 no es charlatanería barata. Una IA con la misma facilidad te puede responder buenos días en chino mandarían que en una base de 1 y 0 o que con jeroglíficos egipcios.

    En cuanto a la racionalidad, basta con observar y experimentar por ti mismo de diversas formas para saber que la tierra es redonda. La ia no hará eso, se basa en fuentes en las que busca valores estadísticos para determinar la respuesta, por lo que puede decir que la tierra es plana, hueca, triangular y que está sobre una tortuga gigante o que la luna está hecha de queso.

    Teniendo en cuenta que un 30% de la población mundial practica el cristianismo, una ia podría optar por negar la evolución de las especies y decir que el ser humano nació del barro, ya que estadísticamente podría ser la respuesta con el valor más alto.
  70. #64 Nadie me ha demostrado que lo sea.
  71. #69 Hay humanos dedicando tiempo a crear máquinas de movimiento perpetuo, eso no permite concluir que los humanos no pueden distinguir lo posible de lo imposible.

    Simplemente hay variedad suficiente para que haya de todo.
  72. #62 Claro, por eso si es un tema que no conoces, luego que tienes una respuesta, toca verificarla. Comprobarla luego en google es mucho más sencillo que intentar buscar una respuesta sobre algo que no conoces desde cero.

    A mí también en temas de física me lo ha hecho. Y cuando le digo que está usando una ecuación incorrecta, es capaz de decirme que no, que la suya es más general y que la que yo le digo solo sirve para casos particulares, cuando es completamente falso.

    Pero por ejemplo en temas más sencillos, si le pido una explicación sobre la fauna y flora del ecosistema del bosque mediterráneo, me da una respuesta excelente. Y por ahora, es eso para lo que sirve.
  73. #70 En cuanto a la racionalidad, basta con observar y experimentar por ti mismo de diversas formas para saber que la tierra es redonda. La ia no hará eso

    Hay muchos humanos que no experimentarán para saber si la tierra es redonda, algunos incluso afirmarán que no lo es. Si existen humanos con esas características no veo por qué debemos exigir a la IA que no actúe nunca de esa forma.

    A todo ello existen las religiones, en las cuales el ser humano con sus observaciones y experimentaciones aún tiene una ingente cantidad de población que sufre de esos delirios constantemente.

    A la IA la entrenamos para que se parezca lo más posible a los humanos en sus respuestas, eso incluye lo anterior. Si pretendemos exigirle la perfección estamos haciendo una comparación deshonesta.
  74. #55 pues lo que te he dicho. ChatGPT tiene fuentes digitalizadas que no están en google.

    El día que auditen las fuentes que utiliza chatgpt lo mismo nos llevamos una sorpresa. Ya que ese tipo de información tan concreta suele ser de pago.
  75. Las limitaciones de un lenguaje nuevo y el encantamiento de la gente ante la novedad , no significan que no tengan valor como un añadido a una realidad cambiante o que la gente sea idiota por dejarse encandilar.
  76. #75 ¿fuentes sobre esas supuestas fuentes? ¿Sabes que se sabe las fuentes con las cuales se ha entrenado? Libros, revistas, páginas web, todo el proyecto Guttemberg. No tiene nada de sorprendente. Si yo fuera capaz de aprenderme todo eso, también sabría dar una respuesta a todo en cuestión de segundos.
  77. A mi juicio los redactores del artículo pecan de soberbia. Algunas de las explicaciones que dan son muy cuestionables. Además la traducción tiene fallos, como el uso de palabras inventadas o muy poco usadas, y la desaparición de párrafos enteros que hace que las respuestas de ChatGPT parezcan confusas.
    Me parece a mí que si la autoridad más conocida en materia de lingüística es incapaz de formular una crítica comprensible a los LLM, quizás es que desde ese ámbito no hay tanto que criticar.
  78. #67 Lo han probado no con un solo bot, sino con varios (ChatGPT, Bing, Claude...) y en el mismo día que salió el artículo de Chomsky... y de paso, en el hilo, ya buscan ejemplos equivalentes también.
  79. #39 Es un artículo firmado por Chomsky entre otros autores.
  80. Es tan fácil como que los que han escrito el artículo hubieran puesto las capturas de pantalla de ese ejemplo. Si no lo han hecho, igual es por algo. De todas formas, el ejemplo es tan simplón que me extrañaría mucho que la versión de ChatGPT de noviembre pasado lo fallara.
  81. #58 Chomsky y otros.
  82. ¿A qué te refieres con "sentido crítico"?
  83. #59, cómo sabes que otra persona sabe que es multiplicar?
  84. #50 puede ser, pero a Chomsky le ha tenido que sentar como una patada en los huevos estás IAs, no es el primer artículo que escribe en este sentido. Sino tuviera resquemor estaría contento de estos avance es más, dispuesto a entender como han alcanzado algo que sus modelos ni siquiera han soñado.
  85. #45 El artículo falla tanto, que ni siquiera sus defensores se han dado cuenta de que falta un párrafo entero, pese a que por el contexto es evidente.
  86. #62 del que no te puede fiar es de un tipo incapaz de encontrar los resultados que busca en la primera pagina de google www.google.com/search?client=firefox-b-e&q=elefantes+anibal+barca
  87. #26, a google le puedes pedir que te escriba una carta solicitando un trabajo específico o que te haga un script en Python?
  88. #4, qué es la inteligencia? Para mi un programa capaz de jugar al ajedrez mediante fuerza bruta mejor que el campeón del mundo es inteligente, la verdad. No se dónde está escrito que la inteligencia y la conciencia o la intuición tienen que ir de la mano, la verdad.


    ChatGPT, con sus fallos es capaz de hacer la mayoría de cosas mejor que la media de los humanos.
  89. #19 ¿Interacciones diarias con algún tipo de IA? No sé yo si tengo tantas. La verdad.
  90. #84 Supongo que te refieres a entender que es multiplicar. Pues saberlo no lo sé, pero puedo tener la duda. Pero sí que sé que una IA no entiende lo que es multiplicar.
    Como anécdota, existen personas que si, efectivamente no entienden lo que hacen, incluido yo mismo en algunos casos. Estudié informática y el primer año tuve un compañero que se aprendió de memoria los algoritmos de ordenación, pero jamás los entendió. Al llegar al segundo curso (con bastantes pendientes del primero) y le explicaron que íbamos a mejorar esos algoritmos le explotó la cabeza y lo dejó.
    Y entono el mea culpa, he estado años haciendo integrales indefinidas sin entender (hasta hace relativamente poco) que era exactamente una integral o por que funciona hacerlas por partes, o haciendo distribuciones de Poisson sin entender un carajo 8-D 8-D
  91. #59 Yo: Cuanto es 717 por 41

    ChatGPT: 717 multiplicado por 41 es igual a 29,397. Por lo tanto, el resultado de la operación es 29,397.

    Es posible que le hayan pasado una tabla de multiplicar inmensa como parte del entrenamiento, pero en este caso considero más probable que haya inferido las reglas de multiplicación. Aún así, con números grandes podría haber problemas debido al componente de aleatoriedad, y en operaciones complejas que requieren múltiples pasos también hay problemas.
  92. #41, la carga de la prueba es que cualquier programa de ajedrez te puede derrotar. Pero tu seguirás diciendo que no es inteligente porque patatas.
  93. #91, chatGPT es capaz de aplicar las multiplicaciones a problemas que no ha visto antes correctamente. Tu definición no sirve para poder diferenciar por qué chatGpt no entiende que es multiplicar y los seres humanos sí.
  94. #90 si te fijas atentamente alucinaras.
  95. #95 ¿Alguna pista?
  96. #1 Mira que me cae bien Chomsky, pero firmar un articulo sin haberse tomado la molestia de probar lo que propone es un poco cutre. Se tarda un minuto en comprobar si chatgpt entiende los ejemplos de los que habla.
    twitter.com/SebastienBubeck/status/1634009568341622784
     
  97. Yo creo, que con el tema de la inteligencia artificial, solo están vendiendo humo.
  98. #73 Casi parece más que Google haya involucionado, que que la IA venga a resolver algo.
  99. #59 gpt empieza a ser bastante general en mi opinión. Cuando te fijas como funciona el modelo, y como representa el conocimiento, te das cuenta de que de alguna forma hay una comprensión de la semántica del lenguaje.

    Yo siempre he pensado que la la inteligencia humana tiene una fuerte base en el lenguaje. Debe hecho es una de las argumentaciones de chomsky.

    Dentro de sus defectos, gpt interioriza una estructura del conocimiento de los textos con los que lo alimentas. Ya desde la tokenización inicial, con los embeddings, se está representando relaciones semánticas. El modelo está entendiendo la relación entre lexemas a un nivel profundo. Y eso ser vuelve a aplicar a un nivel más general (frases). El modelo aprende a enteder la relación semántica de conceptos muy elaborados. Y eso es la hostia.

    Aplicarlo a un bot conversacional que contrasta según determinado comportamiento es solo una forma de usarlo. Creo que hay conceptos alucinantes detrás. Y si no al tiempo. Este mes vienen noticias gordas.
«123
comentarios cerrados

menéame