La inteligencia artificial (IA) vive un nuevo auge. Los éxitos de la técnica conocida como aprendizaje profundo han sido presentados por muchos científicos, compañías y medios de comunicación como una prueba de que la IA general está cerca. ¿Es cierto? La realidad es muy otra. Un análisis pausado revela que los algoritmos actuales siguen siendo propensos a errores catastróficos, carecen de capacidad de razonamiento y contextualización, y no poseen nada remotamente parecido al sentido común humano.
|
etiquetas: traje nuevo , inteligencia artificial , errores , ia , tecnología
Dicho de otra forma, si te sales de un propósito específico estás vendido.
Y ahora toca cosechar las inversiones que se han hecho en ese aspecto. Por eso hay tanto marketing en todo lo que rodea a la IA. Vamos que ualquier cosa que se anuncie a bombo y platillo lleva mucho humo asociado.
No sera que, despues de tantos articulos de mierda en xataka o medios similares se vende la idea de una ia general, estilo terminator, y el machine learning solo da para tareas sencillas -ia debil-?
El cuadradín en torno a una cara que muestra tu móvil cada vez que sacas una foto es, nos gusto o no, inteligencia artificial....
Identificar una riestra de número como un rostro es de todo menos trivial. Y así con un montón de cosas.
Todavía nos quedan muchos años para llegar a un skynet.
Cualquiera que sepa jugar al ajedrez y se haya visto algun resumen de las partidas de alphaZero se ha quedado con la boca abierta.
Skynet esta a años luz todavia. Si se habla de ia por defecto se tiene que pensar en ia debil, no en ia general
Basicamente pensamos lo mismo tu y yo, jajajaja
Y bueno, si nos vamos a hace unas décadas desde los 80, cuando la detección de pulsos telefónicos o respuestas simples de si o no, para saber si que número has pulsado y redirigirte o darte información (una IVR de toda la vida) también eran IAs, pero el público general no las reconocía como tal porque ese halo de marketing entonces no era necesario porque si tenía un beneficio claro y es el ahorro de costes. Ahora mismo te ponen una IA en cualquier sitio y muchas veces aportan más bien poco, por no decir que restan.
Muchos se han montado al carro de la IA, en una especie de pescar en río revuelto, hasta ese crecimiento del Python es más hype cuando lo realmente importante es el análisis de datos.
Pero si, estamos alineados.
Echale un vistazo a este video, son todo progresos de los ultimos meses. Por lo menos el nlp si esta dejando cosas muy interesantes
m.youtube.com/watch?v=cTQiN9dewIg
Sobre el nlp, siempre ha tenido 2 rémoras, y son la capacidad de calculo y el almacenamiento. Hace ya más de 10 años las IVR empezaron a ser notablemente mejores porque los servidores que había detrás habían dado un salto cualitativo enorme tanto en CPU como en RAM. Por ejemplo, un reconocedor de voz decente para sistemas embebidos en un solo idioma, necesita hoy del entorno de 500 megas a 1 giga, porque ahora tiene un diccionario, expresiones comunes y un entrenamiento embebido que contiene expresiones comunes, ruidos, porcentaje de uso de las palabras, etc. Y para poder explotarlo bien (en tiempo real) tienes que meterlo en ram y tener algún núcleo dedicado a esto, y si son varios mejor.
Hasta hace no mucho, los móviles no tenían ni un giga con lo que un reconocedor decente era inviable para dispositivos móviles, hoy tenemos a Alexa, Siri y Google hasta en la sopa y siguen mejorando, pero aún así, siguen siendo inteligencias estancas, sin ramificaciones más allá de resolver su caso de uso. Veremos a ver cómo evoluciona...
Un saludo!