Un nuevo artículo de la Universidad de Waterloo en Ontario sugiere que los modelos de IA también deberían ser capaces de llevar a cabo un proceso que los investigadores denominan aprendizaje de “menos de un disparo” o LO-shot. En otras palabras, un modelo de IA debería poder reconocer con precisión más objetos que la cantidad de ejemplos en los que fue entrenado. Eso podría resolver un gran problema para un campo que se ha vuelto cada vez más caro e inaccesible a medida que los conjuntos de datos utilizados se vuelven cada vez más grandes
|
etiquetas: ia , lo-shot , aprendizaje , entrenamiento , objetos
En su modelo, ellos utilizan lo que llaman 'soft labels'. No es algo nuevo aunque sí es interesante el modo de aplicarlo. El problema que le veo es que en sus experimentos siempre asumen tener las clases de los extremos, con lo cual el resto de clases siempre aparecen entre medias. Mi duda es que pasaría si no es así. Por usar su analogía: su idea es que si tiene un rinoceronte y un caballo, es fácil inferir que el unicornio es algo que estará en el medio. Pero...¿y si la información que tengo es la del caballo y del unicornio? ¿Puedo inferir el rinoceronte? Tal y como plantean su problema, me da que no es posible.
sobre #25 se llaman GANs, dos redes compiten entre sí, que aunque el enfoque es distinto también es súper interesante.
Una red se entrena para generar contenido falso y otra para reconocer que es falso y que no, compiten entre ellas haciendose cada vez mejor en su tarea.
youtu.be/gLoI9hAX9dw
Aún así los sectarios de Podemos seguís siendo mayoría.
Se le puede programar para dar un scoring y que te diga que es un 3 pero podría ser un 8. Pero si lo complicas un poco, por ejemplo, apelotonando los números, algo para nosotros obvio, se complica mucho.
Incluso hay un tipo de programación en la que se hacen 2 programas, uno hace algo y otro intenta reconocer si es real, y así aprenden las 2 solas.
Te recomiendo el canal DOTcsv de YouTube. Ahí te explica bastante bien el funcionamiento.
También puedes ponerla a jugar una partida de ajedrez, donde ganar la partida es el "premio", aunque se le asignan premios menores por diversos progresos como comer una pieza.
Pues me parece que se están llevando la dificultad de entrenar el modelo a la codificación de las etiquetas/ejemplos. Si en vez de hacerlo a mano le meten un autoencoder seguro que también les funciona el invento.
De todos modos, no es innato en los humanos, por seguir con tu ejemplo, el saber que determinado color de piel suele estar asociado a determinado tipo de pelo, ese conocimiento tambien requiere de aprendizaje.
Cuando hablaba de "premio" me refería al término de Psicología que relaciona el refuerzo positivo con una tarea concreta. Los "premios" o refuerzos positivos son los que han creado y modificado nuestra manera de entender el mundo... algo que aumenta la probabilidad de aparición de esa conducta que se ha producido inmediatamente antes. Y es una herramienta muy poderosa en la creación de nuestra psique y nuestro comportamiento futuro... y por tanto, nuestra "inteligencia" (comillas porque definir inteligencia sigue siendo un lío y hay desacuerdos entre los expertos.) Y de ahí que plantee la posibilidad de "premiar" conductas de las IA como refuerzo a soluciones o resultados concretos que haya hecho de manera autónoma el programa. Pero claro... ¿qué podría ser "premio" para un sofisticado programa de inteligencia artificial?
youtu.be/KpfrpMwst9o
(Qué rabia, no lo encuentro en castellano de España )
Lo que sí me pareció interesante es el estudio de hasta cuánto se logra usando un subconjunto significativo de datos, especialmente para redes neuronales.
O sea, más humo.
Si se sienten muy estimuladas las personas tienen un comportamiento parecido a ese y acabamos todos cambiado de tema más allá de los 3 pueblos.
El análogo del "premio que refuerza un comportamiento correcto" en psicología sería el "proceso de entrenamiento" de una red neuronal, que tiene lugar antes de dar la "inteligencia artificial" por terminada y lista para usarse.
Este "entrenamiento" es en realidad un problema de optimización. Partes de un sistema que depende de muchos parámetros y que funciona regular. El problema de optimización consiste en ir cambiando los parámetros para que el sistema funcione lo mejor posible. Se considera que un cambio en los parámetros es bueno si hace que el sistema funcione mejor. Esto sería el "premio" y así es como se sabe qué cambios hay que hacer a los parámetros.
He estado buscando un vídeo que lo cuente sin entrar en demasiados detalles (para no aburrir) y he encontrado este de Quantum Fracture:
www.youtube.com/watch?v=JBZx03342eM
Las ruedecitas que salen en 5:40 son los parámetros que decía antes.
Estoy harto de titulares similares al de esta noticia cuando en realidad
es quela IA es incapaz de distinguir a un mono de una persona de piel negra.