edición general
307 meneos
8958 clics
No, un ordenador no ha superado el test de Turing [EN]

No, un ordenador no ha superado el test de Turing [EN]  

Este fin de semana se ha filtrado la historia de que un "chatbot" ha superado el test de Turing por primera vez. Casi toda la historia es falsa. El comunicado de prensa de la Universidad de Reading debería haber despertado todo tipo de sospechas en cualquier reportero. Relacionada: www.meneame.net/story/ordenador-hace-historia-superar-primera-vez-test

| etiquetas: test de turing , turing , superordenador , ordenador
Comentarios destacados:                  
#1 Habrá que crear un sub en meneame para desmentidos. Porque cada vez hay más bulos que luego acaban saltando a la luz.
  1. Quien se creyera la noticia lo tiene merecido
  2. No pasa nada, muchos humanos tampoco lo superarían.
  3. #0 Tar tar tartamudeando... demasiados "el" en el el título... no crees?
  4. Encima! xD xD

    Relacionado: "Publico mi código que pasa el test de Turing de un bebé de 18 meses, ¡el 100% de las veces!"
    (twitter.com/gallir/status/476083057808924672)
  5. #4 Gracias. Corregido.
  6. Entre que los ordenadores cada vez son más listos y que los humanos cada vez parecen más tontos, si no ha ocurrido aun, faltará poco.
  7. Esto sucede por permitir que cualquiera escriba sobre cualquier cosa. Por muy periodista que se sea, no estaría de más consultar a un entendido en la materia antes de publicar una chorrada.
  8. el test de turing es una chorrada.
  9. #9 El test de Turin parece una chorrada para los que realmente no entienden toda la filosofía que hay detrás. Y eso que es un test técnico.

    El "problema", el vuestro no el del test, es que el Test de Turin no está definido con exactitud. Pero eso no quita valor a lo importante que es.

    El test únicamente dice que es un humano quien debe distinguir entre máquina y otro humano. No dice mucho más. El resto es paja. Y es paja precisamente porque nosotros, los humanos, no podemos definir que es la inteligencia. Y ahí es donde reside el problema... en saber que es lo qué es la inteligencia. Una vez sepamos definirla con exactitud entonces seremos capaces de crearla.
  10. Me parece mas una rabieta de niño pequeño que un desmentido.
    Ayer lei la noticia en meneame y dejaba claro que el chatbot ganador del concurso del test de Turing, es un script, se puede ejecutar en un supercomputador como un smartphone, que los creadores, o al menos uno de ellos, se dedica profesionalmente para hacer lo mismo en Amazon.com desde años, pero con clientes reales, es decir, que te crees que estas hablando con un dependiente para reclamar una devolucion o las caracteristicas de un articulo y en realidad es un bot, vamos que el test de Turing es un juego (planteado hace 65 años) y un homenaje al propio Turing en su aniversario y que esta sobrepasado desde hace tiempo, pero esta reconocido como el padre o uno de los padres de la inteligencia artificial, la robotica y los automatas y ese es un hecho. Toda noticia en la que se le mencione y se la difunda, bienvenida sea.
    A llorar por las esquinas.
  11. Mala noticia para los replicantes.
  12. #5 ¡Ese avance debe estar disponible para la humanidad! ¡Qué haga público ese turing.py!

    Jeje, ma, pa, guta, nana...

    Test de Galli superado :-D
  13. #1 no sé pero desde lo del "boicot AEDE" creo que el número ha aumentado considerablemente.
  14. #12 al menos uno de ellos, se dedica profesionalmente para hacer lo mismo en Amazon.com desde años, pero con clientes reales, es decir, que te crees que estas hablando con un dependiente para reclamar una devolucion o las caracteristicas de un articulo y en realidad es un bot,

    Eso explicaría por qué para la única reclamación que he hecho en Amazon, me atendió alguien tan rematadamente tonto que me acabó redirigiendo a otro (este sí supo hacer las cosas bien).
  15. No sé si es casualidad, pero llevamos unos cuantos días de noticias falsas:
    - El ordenador y el Test Turing
    - La fosa de los 800 esqueletos: www.meneame.net/story/fosa-800-esqueletos-otro-mito-sobre-malvada-irla
    - Las multas por Bla Bla Car: www.meneame.net/story/no-gobierno-no-multara-usar-blablacar
  16. Incluso aunque lo hubiese superado, habría que redefinir las condiciones del test de Turing para que se mantenga fiel a lo que Turing quería expresar. El test habla de inteligencia artificial, de un ordenador imitando la mente humana. Seguramente a Turing ni se le pasó por la cabeza que en 2014 habría ordenadores capaces de indexar millones de conversaciones de chat y mediante un analisis estadístico buscar la respuesta adecuada a una pregunta, pero eso no es inteligencia artificial, solo es procesado de datos estadísticos y seguramente turing hubiese descartado esa posibilidad añadiendo alguna condición adicional. Para mí algo que no te puede ni describir una foto, ni siquiera componer una frase nueva por si mismo no es inteligencia artificial.
  17. #1 Consecuencia lógica de que las portadas estén mayormente constituidas de artículos de blogs y medios minoritarios.

    Es como si vas cada semana a un cine de barrio a ver cine de autor. De las 52 semanas que vayas, 40 verás mierda, 10 verás algo potable y 2 verás algo bueno.

    La grandeza de esta web residía en que para noticias "normales" podías utilizar los medios mayoritarios (AEDE en su mayoría), que suelen estar mejor escritos y documentados, y que para noticias controvertidas donde se impone el silencio y la manipulación de las redacciones de esos medios podías utilizar medios alternativos.

    En un sitio como meneame la comunidad es poderosa y tiene la calidad de noticias que se merece. En este caso una mierda.
  18. Asegurar tan categoricamente que un chatbot no es inteligencia artificial es un poco alegre, no? yo hace mucho que no miro nada del tema, pero digo yo que usará algún sistema para "aprender" de conversaciones previas y tendrá algo de programacion evolutiva, redes neuronales o cosas de esas...
  19. ERRÓNEA en mayúsculas.

    1. Un chatbot és una forma de IA, y fue creado (entrenado / aprendió) por un supercomputador.
    2. Qué test pasó Cleverbot? El artículo enlazado no lo acalar. Habla sobre "porcentaje de humanidad", no sobre pasar el test.
    3. Doblando la reglas???? El bot DEBE hacer que la gente piense que es un humano! O sea que, claro, miente diciendo que es un humano. Cómo es esto manipular las reglas?
    4. Sí, claro, no estamos hablando sobr los jueces teniendo que adivinar si eres hombre o mujer, sino humano o máquina!
    5. Alguna fuente que confirme quien escogió a los jueces, aparte de un tweet?
    6. Sí, el test de Turin es una chorrada. Pero eso no significa que no lo pasase.
  20. #20 Pero, a mi entender, las máquinas solamente "saben" hacer eso hoy en día: Responden a una situación tras analizar cientos, miles o millones de posibilidades de respuesta en poco tiempo, ¿no? Es así como funcionan los superordenadores que ganan al ajedrez a los grandes maestros, toman una "decisión" de entre muchas posibles. Eso es lo que parece hacer este chatbot o lo que sea.

    Lo que quiero decir, más bien preguntar, es si esa forma de respuesta de una máquina ES o NO ES inteligencia artificial. Porque si no lo es, ¿qué lo es entonces?
  21. #1 Exacto, para desmentir esta noticia, por ejemplo.
  22. El test de Turing (o prueba de Turing) es una prueba propuesta por Alan Turing para demostrar la existencia de inteligencia en una máquina.

    La prueba consiste en un desafío. Se supone un juez situado en una habitación, una máquina y un ser humano en otra. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina.

    es.wikipedia.org/wiki/Test_de_Turing
  23. #24 las máquinas saben hacer mucho más que eso, y poco a poco se está avanzando en el tema. Ahora mismo estamos en un segundo resurgimiento de la inteligencia artificial, despues de caer en el poco tras el fracaso por las promesas sin cumplir de los 70s.

    La IA del ajedrez funciona como dices (cáculos a mansalva), precisamente porque es la mejor estrategia para ganar. Los ordenadores son actualmente MUCHO mejores que los mejores humanos jugando al ajedrez.

    ¿Es esto inteligencia artificial? Sí. Lo que no es es "inteligencia artificial fuerte" (en.wikipedia.org/wiki/Artificial_general_intelligence) que es lo que normalmente quiere decir la gente cuando dice "inteligencia artificial".

    Pero no es la única inteligencia artificial, y muchas no se basan en hacer cálculos a mansalva (o al menos no únicamente) como por ejemplo las redes neuronales o los diversos campos como por ejemplo el procesado de lenguaje natural, donde calcular muy rápido da igual. Ahí es donde, de momento, los humanos somos mejores.
  24. ¿Tendrá esto algo que ver?

    www.imdb.com/title/tt2084970/
  25. #23
    El test de Turing no es un test científico, era un simple juego, no hay unas reglas detalladas. ¿Pero qué mérito tiene "pasarlo" si el bot simula ser un niño de 13 años (para no poder hacerle preguntas que requieran conocimientos un poco elevados) y se le dice a los jueces que el inglés no es su lengua materna? ¿Cuál es el límite? ¿Si lo hicieran pasar por un niño de 3 años también podrían decir que han superado el test?
  26. Ahora es un buen momento para ir al hilo original y repasar los comentarios, así, por diversión.
  27. #17 Venía a decir lo mismo.
  28. #27 Pues yo pienso que seguimos igual en IA que hace muchos años. Las dos ramas mas importantes de la IA siguen siendo las "redes neuronales" y los "sistemas expertos". Si, se han mejorado (en parte gracias a la potencia del hardware), pero sigue muy lejos de lo que se supone que es un "ser inteligente".

    No existe algo parecido a lo que viene siendo el "sentido común". No hay nada de improvisación, creatividad, etc...
    Se quiere aproximar al "sentido común" a base de procesar millones de datos simples, pero pienso que no es tan facil como eso y puede llevar a muchas contradicciones y meteduras de pata.

    Si no sabemos bien como funciona el cerebro, no podemos crear algo parecido teniendo un conocimiento tan limitado del pensamiento/inteligencia humana. Yo personalmente llevo años sin asombrarme de nada que venga de la rama IA.
  29. Gente, que nadie se altere. Por desgracia esto es bastante habitual. El procedimiento siempre es el mismo:

    1) Un científico (o un desarrollador, un técnico, un ingeniero, un...) realiza un avance modesto en un determinado campo.
    2) Se lo cuenta a un periodista.
    3) El modesto avance se convierte en "una revolución".

    Pasa muy a menudo y se debe a la poca ética de las personas involucradas. Por un lado tenemos al periodista, que habla/escribe sin tener ni idea. Y por otro al científico, que pese a ser consciente de que no ha hecho gran cosa se atreve a animar al periodista a anunciarlo a bombo y platillo.
  30. Desde que la derecha de los mass media puede decir cualquier mentira sobre venezuela o corea del norte sin arrugarse y donde cuando se conoce el engaño al final ningun medio pide disculpa por eso hay libertad para engañar con cualquier noticia como esta.
  31. #32 es que en mi opinión precisamente lo que nos falta es capacidad de procesamiento en paralelo, que es en lo que el cerebro es excelente. Ahora mismo somos capaces de hacer muchos cálculos en serie (CPUs) o en todo caso vectorialmente (GPUs) pero no hay un verdadero procesamiento en paralelo.

    ¿Cuántos cores tienen la CPU más gorda que se usa en servidores actualmente?

    ¿Y cuántos "cores" tiene tu cerebro?

    Si todo avance en IA lo descartas porque se debe al avance en el hardware entonces claro que la IA no avanza :-P Y junto con el hardware avanzan los algoritmos (aunque sea simplemente en adaptarlos al nuevo paradigma paralelo).

    IMHO las redes neuronales siguen siendo el camino a seguir para imitar al cerebro humano (aunque sean sólo un modelo), pero seguimos limitados en cuanto al hardware se refiere.
  32. #27 La inteligencia artificial como tal sigue siendo un problema de decisión: ante un estímulo, decidir lo más correctamente posible una solución entre las que el algoritmo tiene programadas, o sea, resuelve más o menos bien problemas que conoce de antemano con las herramientas de que dispone. Un humano es capaz de improvisar soluciones más allá de su conocimiento, a eso es lo que llamamos inteligencia, resolver problemas que no conoce de antemano improvisando herramientas con las que en principio no dispone.
  33. #36 sí y no. Como comento en #35, ¿no es al fin y al cabo nuestro cerebro un gran hardware-algoritmo pre-programado por millones de años de evolución?

    Una red neuronal también es capaz de "improvisar" ante estímulos que no ha visto hasta ahora y que no están programados. Puedes argumentar que el mapeo en las neuronas es esa programación de la que hablas. Yo te argumentaría que exactamente igual que nosotros.
  34. #29 Has leído mi último punto? Pues claro que no es una cosa seria. Y?

    Sobre lo otro, los jueces supongo que le preguntarían sobre cosas que sí que debería conocer un chaval de 13 años, o sobre su lengua materna.
  35. #38 Precisamente por no ser una cosa seria no debe darse tanto bombo a la noticia. Y lamentablemente... se le ha dado.
  36. #37 ¿lo es? ¿realmente sabemos como funciona? (aparte de lo básico, cómo funciona una neurona y la arquitectura neuronal y qué partes del cerebro se estimulan cuando hacemos cada cosa y demás, todo eso que hemos intentado replicar y no hemos conseguido muchos avances hasta ahora)

    ¿realmente una red neuronal improvisa estímulos? yo solo he logrado que sean capaces de resolverme problemas de decisión tipo: ante estos estímulos de entrada dame estas salidas con el menor margen de error posible... lo cual deja poco margen a la improvisación (lo que queda es margen de error, o sea, puede equivocarse al buscar una solución, pero no improvisar soluciones nuevas). Lo que pasa ante un estímulo nuevo para el que no ha sido entrenada es que intenta seguir su programación "tal cual" y reacciona como puede y con mucho error. Te lo dice un tipo que en su día hizo un software de corrección de ojos rojos basado en redes neuronales (imagínate que hice pruebas con todo tipo de fotos, para conseguir que se centrara sólo en ojos, y sé perfectamente las limitaciones de un software así)

    Las redes neuronales humanas se recablean para adaptarse a nuevos problemas. Ya solo eso es algo que no puede hacer ningún ordenador ahora mismo (entre otras cosas porque no sabemos qué lógica siguen dichos recableos, entre otras cosas porque no sabemos cómo hace el cerebro para almacenar la información realmente)
  37. #39 Y precisamente por eso esta noticia no debería estar en portada. Le da más bombo aún, y en este caso dando datos erróneos.
  38. #35 Existen tarjetas aceleradoras de redes neuronales (pequeños módulos de cálculo de red neuronal multiplicados en gran cantidad para simular dicho paralelismo) que se usan en investigación y desarrollo de algoritmos (y es posible que en servidores de reconocimiento de voz o de visión artificial y cosas). Supongo que salvo nichos muy específicos no han tenido mucho éxito, por algo será.
  39. #40 mi opinión es que no necesitamos saber cómo funciona el cerebro. Nos basta con el modelo. Lo que realmente no conocemos y donde realmente estamos limitados es en el mapa cerebral, la "programación" en nuestro ADN.

    La naturaleza nos lleva millones de años de ventaja. ¡Demasiado bien que vamos! :-P

    "¿realmente una red neuronal improvisa estímulos?"

    Yo creo que sí, o al menos en la misma medida que el ser humano. ¡Ahora mismo un ordenador es capaz de resolver CAPTCHAs con un % de acierto mayor al del ser humano!

    "Lo que pasa ante un estímulo nuevo para el que no ha sido entrenada es que intenta seguir su programación "tal cual" y reacciona como puede y con mucho error."

    Como nosotros ;) ¿O tú no ves objetos en las nubes y figuras humanas en las sombras?

    "Las redes neuronales humanas se recablean para adaptarse a nuevos problemas."

    Y las redes neuronales por software también pueden. Es un problema de entorno: nosotros recibimos continuamente "feedback" ante esos nuevos problemas y las soluciones que aportamos, mientras que esperamos que la red neuronal artificial funcione perfectamente sin supervisión.

    No nos damos cuenta de que un ordenador está limitado porque no recibe la misma cantidad de estímulos que nosotros ni lleva millones de años de "programación" implícita.
  40. #35 Las redes neuronales son usadas principalmente en problemas de "reconocimiento de patrones" y hay que "enseñarlas" o "estimularlas". No se como se podrían usar las redes neuronales para lograr algo parecido al "sentido común", a la creatividad (imaginación, improvisación, etc...) u otros aspectos de la inteligencia humana. Lo veo igual de limitado que a los sistemas expertos (precisamente un acercamiento a algo como el sentido común ha sido realizado desde el campo de los sistemas expertos: en.wikipedia.org/wiki/Cyc ).

    No se, creo que el problema no es solo el hardware o la potencia de calculo en paralelo. Creo que hay otras muchas cosas que no conocemos (a nivel fisico o matematico) del cerebro y que podrían ser la clave para mejorar en IA. Es de tontos pretender creer que actualmente lo conocemos todo, porque eso puede llevarnos a otra crisis de la IA.
  41. #21 Hablas como si no se la hubieran colado nunca a los grandes medios que además rara vez publican desmentidos reconociendo que se han equivocado. Para eso ya está malaprensa.
  42. #44 No nos bastaría si el cerebro fuera determinista, cosa que no podemos asegurar. No es una caja negra, que ante un estímulo dado siempre reacciona de la misma manera, así que al contrario, necesitamos saber cómo funciona para poder hacer un modelo que se ajuste al cerebro. Sobre la programación en el ADN... ahí solo vienen las instrucciones para crear y arrancar la máquina. El resto es aprendizaje.

    Que el ser humano se equivoque al escribir o mire con prisas no implica que no sepa resolver captchas, solo implica que es torpe y que baje el porcentaje de aciertos. Que un bot sepa capaz de acertar más que la media de humanos no lo hace más listo que el más tonto de ellos, solo un bicho hiperespecializado en una cosa que no vale para nada más.

    ¿Qué entiendes tu por recablear? ¿qué redes neuronales se recablean y qué algoritmos utilizan para ello?

    Las redes neuronales tienen que ser entrenadas, hacerles ver qué es lo que queremos que acepten y qué es lo que queremos que rechacen. Los cerebros se entrenan solos. Las redes neuronales que no se entrenan no valen, se ajustan a las entradas que le introducimos sin más hasta no tener error. Introduce otra cosa y empezarán a funcionar mal porque no sabrán discriminar, no tienen modelos para hacerlo.
  43. #21 Pues lo de las multas por usar BlaBlaCar, que ha resultado ser falso, ha salido en todos los medios, grandes y pequeños
  44. Hace tiempo que los ordenadores demostraron ser mas inteligentes que nosotros...nunca se cabrean xD
  45. Bajo mi humilde opinión creo que nos cegamos con las Redes Neuronales y pensamos que son la herramienta definitiva en IA. Quizas sean necesarios otros cuantos años para "inventar" algo nuevo (como ya paso con los Sistemas Expertos o con las mismas Redes Neuronales), ya sea una mezcla de herramientas o nuevos algoritmos o vete a saber que. Pretender que con las herramientas actuales logremos igualar a la inteligencia humana quizás sea limitarnos y nunca poder conseguirlo realmente (otra nueva crisis de la IA).
  46. #41 Que sí, que la has cagado diciendo una gilipollez en #23 (y usando negritas sólo aumentas la tontuna). ¿Tanto te cuesta reconocerlo?

    Ea, ea, ya pasó. :hug:
  47. #38
    Lo que quiero decir es que yo no la veo errónea. Aunque el test no sea una cosa seria, se sobreentiende que, cuando se dice que la máquina debe hacerse pasar por humano, debería ser cualquier humano, en general, si lo restringes a adolescente con lengua materna no inglesa (y jueces con lengua materna inglesa), entonces yo no diría que el bot ha pasado el test de Turing
  48. #42 enlázame a una por favor, porque ni las he oído nombrar. ¿Cómo se comparan en cuanto a potencia con el cerebro? ¿Tienen, como nosotros, miles de millones de neuronas?

    Y que no sea ua FPGA, porque decir que una FPGA programada es una "tarjeta aceleradora para redes neuronales" es bastante engañoso/erróneo.

    #47

    "¿Qué entiendes tu por recablear? ¿qué redes neuronales se recablean y qué algoritmos utilizan para ello?"

    Como tú mismo dices: "Las redes neuronales tienen que ser entrenadas". El entrenamiento de las RNA es precisamente ese recableo.

    ¿Algoritmos? Pues por poner un ejemplo, backpropagation.

    "Las redes neuronales tienen que ser entrenadas, hacerles ver qué es lo que queremos que acepten y qué es lo que queremos que rechacen. Los cerebros se entrenan solos."

    ¡No! ¡Los cerebros no se entrenan solos! Si así fuera todo el mundo sabría todos los idiomas sin exponerse a los estímulos lingüísticos (las entradas en la RNA) y sin que nadie les dijera qué aceptar (buenas construcciones de frases) y qué rechazar (p.ej. cuando conjugas de pequeño mal un verbo y te dicen "no es hacido, sino 'hecho'").

    No entiendo por qué distingues entre un entrenamiento y otro. Ambos son entrenamientos en el mismo sentido. Los humanos tenemos la ventaja de que recibimos feedback de nuestros errores, mientras que las RNA se espera que funcionen de forma autónoma y sin fallar (cosa que no conseguimos ni los humanos).

    "Las redes neuronales que no se entrenan no valen, se ajustan a las entradas que le introducimos sin más hasta no tener error. Introduce otra cosa y empezarán a funcionar mal porque no sabrán discriminar, no tienen modelos para hacerlo."

    Discrepo y no porque me de la gana sino porque he visto RNA en acción.

    Es precisamente la gracia de las redes neuronales, que se adaptan a nuevos estímulos. Si no, no tendría sentido usarlas... Si solo valen para los estímulos que le has entrenado, ¿para qué cojones vas a usarlas si ya tienes tú mismo las respuestas con las que las estás entrenando?
  49. No solo hay AI por redes neuronales que requieren entrenamiento de patrones. El aprendizaje puede ser autonomo mediante programacion genetica, incluso ya existe el hardware evolutivo, eso de enviar astronautas a reparar las estaciones espaciales sera viejuno pronto, no he visto reparar los 'pinchazos' de la Curiosity en Marte en los años que lleva por alli rulando.

    Esta claro que la intervencion humana es necesaria para introducir los parametros (fitness, crossover/mutation) de 'como' queremos que evolucione la solucion del problema, pero cualquier situacion del tipo NP-Completo y sin necesidad de patrones de aprendizaje se puede resolver, si eso no es (r)-evolucion, joder.

    Que dentro de poco no aparezcan nuevas herramientas matematicas que mejoren la AI, tampoco lo dudo. El 'sentido comun', no se que significa, las computadoras solo entienden instrucciones logicas, las emociones, afortunadamente solo estan al alcance de los seres humanos, pero eso si, disfrutemoslas, coño, lo demas dejemoselo a las maquinas.

    Que estos avances no se utilicen para mejorar la economia global, sino el de unos pocos, que se use para instrumental belico o represivo en lugar del bienestar de las personas, la salud solo del que pueda permitirselo, lo acepto, pero existir existen.
  50. #21 salvo por el último párrafo completamente de acuerdo
  51. #54 El sentido común es por ejemplo algo tan tonto como distinguir entre una fiesta en el campo y una fiesta en un hotel a la hora de usar una ropa u otra (por comodidad por ejemplo). O saber que si estas cansado y con sueño es mejor dormir bajo techado que en plena calle (aunque dispongas de colchon en los 2 sitios). Si esta lloviendo un poco y vas al gimnasio que te llevas: ¿unas botas impermeables de esas que te llegan a la rodilla y un chubasquero o te llevas tu ropa deportiva y un paraguas simplemente al no llover demasiado e ir con cuidado? Hay millones de decisiones de sentido común en las que se demuestra inteligencia y no creo que eso sea "programable" de modo similar a como un ser humano puede razonar.
  52. #53 neuralnets.web.cern.ch/NeuralNets/nnwinhephard.html

    Sabrás entonces que primero se entrena una red neuronal y luego se usa una vez acabado el entrenamiento. Seguir entrenando la red neuronal es perder los avances que hayas hecho para resolver un cierto problema, la estarás alienando (igual que los resultados dejan de ser óptimos si la sobreentrenas o si la subentrenas, también lo son si empiezas a meter información extra a mitad de un entreno, más cuanto más se alejen esas nuevas muestras de los datos sobre los que quieres trabajar).

    Backpropagation es un algoritmo simple de retroalimentación. Eso no es un recableado, no hay cambio de topología, no es cambiar los enlaces, es algo necesario para que cada neurona mantenga un "histórico" de su estado anterior para no perder todo el conocimiento que antes tenían al llegar un estímulo nuevo.

    Bien, ¿y cómo aprendió otro idioma el primer bilingüe de la historia? somos capaces de entender que ciertas palabras se corresponden con un objeto, así que aprendemos solos y sin que nadie nos de un diccionario y nos enseñe a usarlo el nombre de las cosas. A base de escuchar aprendemos la sintaxis, la construcción de las frases, igual que hacen los bebés. Las redes neuronales aprenden diferente, no entienden los estímulos, somos los humanos los que les damos un objetivo, cosas que aprender, y ellas terminan adaptandose para reconocer ese objetivo y a rechazar cosas que no son ese objetivo. Fin. Eso es resolver problemas de decisión "binaria" con un margen de error, no aprender.

    Las redes neuronales tienen sentido desde el reconocimiento de patrones precisamente porque los algoritmos tradicionales que harían el mismo trabajo son muy complejos o nadie los ha sabido/podido/querido diseñar todavía. Pero si les haces aprender un patrón nuevo, ya no te reconocerán el anterior (y no, eso es muy diferente del olvido nuestro, nosotros olvidamos la información espúrea, si nos dan un nuevo patrón no olvidamos el anterior salvo que ya no nos valga). La mente humana es capaz de quedarse con las características básicas de algo, el recuerdo es una regeneración de ese algo a partir de los datos almacenados. Una red neuronal es un bloque que se fija con el entrenamiento, imagínate el juego este de niños pequeños de meter formas en agujeros para esas formas. En este caso, una red neuronal es como tallar poco a poco ese agujero de manera que termine entrando solo la pieza correspondiente (pongamos una estrellita) y no las demás (ni la lunita, ni el cubito). Una vez aprendida una cosa, no puede aprender otra sin hacer borrón y cuenta nueva. Con mucho entrenamiento puedes programarlas para que aprendan dos o tres cosas simultaneamente, dependiendo del tamaño y complejidad de la red igual son capaces de aprender más, pero no te equivoques, cuantas más cosas quieras que aprendan más error vas a cometer. No son adaptables, y desde que dejes una entrada arbitraria de datos, salvo que se repita algún patrón muy característico (que al fin y al cabo es de lo que se trata el entrenamiento, de fijar un patrón en la "memoria" de estas redes), la salida se terminará convirtiendo en basura.
  53. ¿Y quién nos asegura que este artículo no ha sido escrito por un bot? :troll:
  54. #57 "Sabrás entonces que primero se entrena una red neuronal y luego se usa una vez acabado el entrenamiento."

    Busca "incremental neural network", "self organizing neural network", etc. que es exactamente lo que es nuestro cerebro. No todo son perceptrones, amigo :-)

    "Backpropagation es un algoritmo simple de retroalimentación. Eso no es un recableado, no hay cambio de topología"

    Si un peso es 0 no hay cable. Si es >0 hay cable. Recuerda que una RNA es un modelo. Si pretendes una simulación real, se vuelve impráctico.

    "Bien, ¿y cómo aprendió otro idioma el primer bilingüe de la historia?"

    Pues oyendo a otros hablantes (estímulo) y recibiendo respuesta positiva o negativa. Como las redes neuronales.

    "A base de escuchar aprendemos la sintaxis"

    Eso suena exactamente como una red neuronal.

    "somos los humanos los que les damos un objetivo"

    Eso suena exactamente como el aprendizaje humano.

    Sigo sin entender muy bien por qué diferencias el aprendizaje humano del aprendizaje en las RNA.

    Estímulo -> Respuesta -> Correción de errores -> Rinse and repeat
  55. #57 por cierto me refería a enlaces a tarjetas modernas (era post-GPU) no de 1998. El estado del arte tanto en hardware como en software como en algoritmia ha sufrido un cambio radical.

    ¡Me estás enlazando a tarjetas en bus ISA/PCI a 33MHz!
  56. #59 No lo es, es lo que tu y segurmaente otros piensan que es. No confundas el modelo con la realidad. Y no, los perceptrones son lo más básico, pero otros modelos no son más que ligeras modificaciones para corregir los problemas evidentes que tenía ese modelo básico.

    Sigo diciendo que no hay cambio de topología, sigue habiendo el mismo número de neuronas, dispuestas e interconectadas de la misma forma. Es solo una forma de controlar el paso de información por ellas, la forma de controlar el aprendizaje. Sigue sin haber reconexiones.

    Cuando oyes a un hablante en otro idioma no recibes una respuesta negativa o positiva. Tu la interpretas como positiva o negativa, pero con otras connotaciones además. No sabes si una persona que te responde mal a una pregunta lo hace porque está enfadado, porque es así de brusca, porque no quiere que le molestes y no te ha contestado a tu pregunta, porque... y dependiendo del tipo de respuesta le añades miedo, frustración, dolor, risa, etc. Hay un componente emocional aparte de un componente racional, y dentro de cada hay una gradación tremenda; no es tan fácil la información real que encuentra nuestro cerebro y la que tiene como entrada una red neuronal (que además está filtrada y cribada durante su entrenamiento, porque lo que interesa es que aprenda rápido y se quede con casos claros del patrón referencia de modo que pueda distinguirlos rápidamente de todo lo demás).

    Eso es más complejo que una red neuronal. La sintaxis de un lenguaje natural permite ambigüedades, casi se sustenta en ellas. Necesitas asociar varios significados a una misma cosa y saber elegir por el contexto en que se dice. Muchas veces necesitamos un cierto tono de voz o una mirada para entender unas palabras.

    Porque el humano es capaz de razonar y resolver problemas nuevos sin cometer errores ni repetir. No necesita un aprendizaje previo. Y esto ya lo dije antes.
  57. #61 vale tú ganas.
  58. #60 En tu ordenador se pueden poner y funcionan porque tiene un bus pci (express, pero pci al fin y al cabo). No necesitan un ancho de banda bestial como una tarjeta gráfica, así que no necesitan fabricar para un estándar más moderno y caro. Y tu mismo has dicho que las gpus son procesadores vectoriales que no son eficaces para esto, y yo ya he dicho que no tuvieron mucho éxito en su momento. Aún así lo dicho, son productos que aún se venden y son válidos, así que no veo el problema.
  59. #63 el problema es que la tecnología tanto software como hardware ha cambiado. Si me das un artículo de 1998 no llego a la conclusión de que, como dices, no se hayan adoptado, sino que en 1998 el estado del arte daba pena (como todo, comparado con 2014, en 1998 el Nokia 8810 era tecnología punta).

    Entre los enlaces de tu web me llevan a www.particle.kth.se/~lindsey/HardwareNNWCourse/summary.html#Update donde dice, tal y como yo opino:

    "As far as I can tell, there are still no significant developments in the theory and application of really large NNWs (1000s of neurons). Large networks, and also fast learning, will provide the requirements that will eventually demand hardware architectures."

    Cuando se fabrique una unidad de procesado con miles de millones de cores (aunque sólo sepan realizar dos operaciones: multiplicar por el peso y aprendizaje) podremos compararla con el cerebro humano.

    Lo que diferencia mi opinión de la tuya es que tú crees que es una cuestión estructural, mientras que yo lo veo como una cuestión de paralelismo (obviamente también estructural, pero en menor medida... y creo que limitada por el hardware en estos momentos, no por falta de ideas). Y ninguno de los dos puede demostrarle al otro que no tiene razón :-)
  60. #56 Explicale a un indigena del Amazonas si es mejor ir con corbata a una fiesta en una piscina o una fiesta de un hotel. O dormir bajo una choza o en un hotel de 5 estrellas, para ti sera importante, para el, o un programa, no. Si te crees inteligente por eso, pues vale. Son gestiones emocionales, pero no inteligentes.
  61. #66 No has entendido el ejemplo. Hablaba de comodidad, no de etiqueta. De todas formas a un indigena del amazonas tambien le da igual que le llueva cuando va a darse un paseo.
  62. #67 jajaja
  63. #52 En el test de turing te has de hacer pasar por UN humano, por humano. No por cualquier humano.
  64. Me parece más sensato un enfoque más parecido a #52 que a #70. Lo práctico es que el test se refiera a hacerse pasar por un humano promedio (o algo similar). Por ejemplo que tenga una edad mediana (ni adolescente ni anciano), un coeficiente de inteligencia más o menos intermedio, unas capacidades aceptables, etc.

    Porque de lo contrario no tendría sentido ni mérito pasar el test. Si bastase con simular a "un sólo ser humano" elegido a dedo, bastaría elegir a alguien mudo (o sin manos para teclear). O alguien sordo y ciego, que no podría captar las preguntas. Entonces cualquier programa que no respondiera nada pasaría ese test (incluso un loro lo pasaría en ese caso, con la excusa de que se trata de un sordo por ejemplo), pero no tendría sentido ni utilidad (ni siquiera utilidad filosófica).
  65. #70 ¿Y si se hace pasar por un humano de 2 años, o con un retraso mental profundo también vale? Seamos serios, no todo vale...
  66. #68 Si tu riete, pero dime como harias para que un programa o sistema no se trague por ejemplo que el hombre a pisado el planeta Urano recientemente o que una embarazada a dado a luz un niño de 30 kg de peso. Si eso no es sentido común, entonces dime tu que es. Es imposible que un programa pueda abarcar todas las contradicciones y deducciones a las que llega un ser humano de muy diversas maneras. En el ejemplo que te he puesto de la embarazada, a mi nadie me ha dicho nunca cual es el limite de peso de un recién nacido, pero es de "sentido común" pensar que es imposible que una mujer pueda parir un bebe de 30 kg (no te parece?).
  67. Disculpa si te ofendi al poner carcajadas al responder a tu comentario, no era esa mi intencion en absoluto. Simplemente me hizo muchisima gracia el ejemplo que pusiste.
    Esta claro que las maquinas no tienen intuicion, sensibilidad, emociones, que es lo que nos diferencian, pero eso no las hace mejores ni peores.
    Quiza sea facil engañarlas mediante paradojas logicas, pero absurdas, pero no hubiesen cometido errores como el accidente del Alvia por atender una llamada de movil que el sentido comun humano si hizo, era la llamada del interventor, podia ser importante. Un sistema EMRTS hubiese hecho tomar la curva a la velocidad adecuada, ni sentido comun, ni emociones ni nada.
    El accidente del Aviaco, si un dispositivo dice que hay un error, el sentido comun de un mecanico dice, bah, esto se ha quedado haciendo contacto, lo quitamos y va que chuta, un piloto automatico hubiese abortado el vuelo. Aunque si ese avion hubiese sido el del Principe el piloto hubiese abortado igualmente, ahi parece que hay mas sentido comun.
    Quiero decir, que el sentido comun es muy relativo, emocional y nada fiable.
    Por supuesto que respeto tu opinion y te reitero mis disculpas por no haber sido claro al escribir unas carcajadas sin mas en mi anterior comentario.
    Un saludo.
    #74
  68. #26 Lo curioso es que el test original de Turing decía que que el "ordenador" debía imitar a una mujer y convencer a un humano de ello xD

    www.popsci.com/blog-network/zero-moment/lie-lady-profoundly-weird-gend
comentarios cerrados

menéame