La infraespecificación consiste en que las pequeñas variaciones arbitrarias que aparecen en los modelos a medida que entrenan impiden garantizar su buen funcionamiento en el mundo real. Este grave problema sugiere que habría que replantear todo el proceso de evaluación de las redes neuronales. No es ningún secreto que los modelos de aprendizaje automático adaptados y ajustados para lograr un rendimiento casi perfecto en el laboratorio suelen fracasar cuando se aplican en entornos reales. Esto se suele atribuir a una falta de coincidencia entre
|
etiquetas: google , descubre , fallo , vital , proceso , entrenamiento , ia
No creo que de momento dejen a una IA extirpar bazos sin supervisión. Otra cosa es un algoritmo programado para ese bazo concreto. Programar eso cuesta más que pagar al cirujano.
Si entrenas una red neuronal con ejemplos muy concretos, se focalizará en esos ejemplos y funcionará bien si siempre es todo igual, pero con algo diferente la cagará a lo grande porque los pesos de las neuronas están adaptados a algo muy concreto. Si das ejemplos más generales no acertará con tanta precisión pero será más robusto frente a datos anómalos.
Suma a eso cosas como el problema de "la caja negra" o "la maldición de la dimensionalidad" y puedes tener un serio problema. Lo "bueno" es que las herramientas para validar los modelos es estadística pura y dura, y eso lo tenemos más controlado.