edición general
242 meneos
2943 clics
Deepmind ha aprendido a predecir la forma de las proteínas, pero el enigma no acaba ahí

Deepmind ha aprendido a predecir la forma de las proteínas, pero el enigma no acaba ahí

El programa de inteligencia artificial AlphaFold de Google ha provocado un terremoto en la ciencia al dar soluciones correctas a un problema legendario: predecir la estructura proteica conociendo solo su secuencia de piezas químicas. Los investigadores del área, asombrados, hablan de implicaciones “revolucionarias” para la biomedicina y la creación de fármacos. Pero ¿está realmente resuelto?

| etiquetas: deepmind , inteligencia artificial , biomedicina
121 121 0 K 271 ciencia
121 121 0 K 271 ciencia
Al parecer, una vez tienes la predicción, no la puedes comprobar. Es preciso recurrir a la realidad (experimentos).
#1 En el artículo lo que dice es que hace la predicción final, pero no da los pasos que llevan a ese plegamiento final.

Para mí, otro problema fundamental es que cuando una IA basada en redes neuronales resuelve un problema, en el fondo no tienes NPI de cómo lo hace. Sabes la estructura de la red, cómo entrenarla, pero al final te encuentras con cientos de miles o millones de parámetros que constituyen la red y son casi tan misteriosos como un cerebro real. El humano, en el fondo, no entiende más que antes, solo tiene una herramienta útil que no sabe cómo funciona.

Los viejos algoritmos diseñados por ingenieros sí que producían sensación de entender algo. Pero van quedando obsoletos, arrollados por la potencia de las redes.
#2 los viejos algoritmos no es que producían la sensación de entendimiento, es que básicamente si no lo entendías, no podías programar nada para resolverlo xD

La IA es una herramienta grandiosa incluso si al final sólo tenemos una caja negra; no importa: es una muy buena herramienta.
#4 La IA es una herramienta grandiosa incluso si al final sólo tenemos una caja negra; no importa: es una muy buena herramienta.

Bonito epitafio.
#2 #4 "It's like we're not programming anymore, we're growing intelligence that we don't truly understand."
- Zeynep Tufekci
#4 Imagina que una IA te dice que una persona va a sufrir una patología, pero no sabes cómo lo predice. En consecuencia esa persona es rechazada por una aseguradora.

Para esa persona sería imposible rebatir a la IA.
#16 si la IA tiene "razón", pues c'est la vie, no? Qué quieres rebatir? No entiendo qué me quieres decir. Esa persona debería tomar nota de otra IA que le recomendara algún tratamiento potente para su futura patología. En el escenario futurista que pintas habrá diferentes soluciones.

Habrá aseguradoras que te den primas si la IA predice que no tienes nada potecialmente peligroso. Otras aseguradoras te rechazarán, otras quizá ni lo tengan en cuenta. En base a todo esto habrá todo un rumor científico y político, habrá presión social etc. Cuando pintáis escenarios futuristas simplemente ponéis el artefacto futurista que imagináis en un mundo presente y os olvidáis de todo el contexto que lo rodeará en el futuro...
#17 Recuerdo una historia (sin fuentes) de una aseguradora de USA especializada en asegurar conductores que ninguna otra aseguradora quería, el negocio se basaba en llegar a acuerdos rápidamente para evitar llegar a juicio y ahorrar costes. Más o menos
#17 Y llegado el caso, habrá un consorcio de seguros obligatorio por ley para los rechazados.
#16 Las IA te darian un porcentaje de probabilidad. Teniendo disponibles los datos que da las IA de un nº alto de predicciones, se podria analizar si se ajusta a la prediccion y si no se ajusta con un margen, es que la IA esta mal.
Pero para eso deberian obligar a la empresas a dar los dato de la prediccion y lo que ha ocurrido, si no es dificil rebatirlo. #2
#2 a mi me resulta siniestro, lo de obtener conocimiento sin entender cómo se ha obtenido ... :-O
#9 Es lo que nos pasa a todos cuando leemos un artículo científico un poco especializado en Menéame.
Lees el titular y sabes de qué está hablando. Pero antes el artículo donde te lo explica detalladamente y es una caja negra. Por pura ignorancia. Al menos en mi caso.
#12 Si, pero asumes que en algún lado hay un humano que es capaz de explicar todos los pasos y fundamentos a otro humano que puede replicar el experimento. En este caso el sistema acierta al predecir cómo se pliegan las proteinas pero los científicos no pueden. Eso es lo que me da canguelo.
#13 Tampoco es tan extraño si lo miras en perspectiva.
Si nos ponemos en plan repelente, la física no ha demostrado casí nada, simplemente se experimenta y se da por buena una teoría hasta que venga otra a reemplazarla o ampliarla.
Newton pudo predecir que una manzana va a caer al suelo (licencia poética), pero no los motivos, Einstein amplió un poquito más tarde, luego Higgs y ahí estamos, hemos creado satélites, envíado hombres al espacio, ..., y seguimos sin entender la masa y la gravedad al 100%.
#26 hombre, hacer un modelo que pueda predecir algo quiere decir que algo entiendes sobre el funcionamiento del modelo, Einstein comprendía la naturaleza un poco mejor que Newton, lo que vamos es extendiendo los límites de lo que no sabemos xD
#2 Desde mi desconocimiento.
No sería posible pedirle resolver problemas más pequeños (partes del problema completo) para ver pautas de cómo resuelve trozos me os complejos para inferir como lo hace con el problema global?
#11 No es posible con redes con un tamaño útil.

Te puede interesar: www.youtube.com/watch?v=aircAruvnKk
#11 Si es posible, siempre que entiendas el problema lo suficiente como para dividirlo en pedazos (aquí no se da el caso).
Para OCR se usan varios modelos interconectados. Detectar palabras, dividir palabras, interpretar letras ... Esto es lo normal.
En otros casos no entiendes el problema en su conjunto con lo que es imposible dividirlo en trozos así que tiras por fuerza bruta. Te creas una red que "prueba cosas" y otra que "valida cosas" (esta es la que si entiendes) y las dejas pelear un buen tiempo (redes adversarias), por ejemplo.
#2 Los viejos algoritmos diseñados por ingenieros sí que producían sensación de entender algo. Pero van quedando obsoletos, arrollados por la potencia de las redes.

No es verdad, tratan de resolver problemas distintos, los algoritmos nunca van a ser sustituidos por redes neuronales en problemas que requieran determinismo.
Hasta ahora se ha hecho una demostración teórica siguiendo el método científico, pero no se ha podido demostrar en el campo. Aún así es de estás noticias que te dejan buen sabor de boca!
Interesante avance. Sin embargo, las predicciones siguen dependiendo de bases de datos de estructuras reales. Todavía no es posible determinar la estructura de una proteína totalmente diferente a las ya conocidas. Por ello, como dicen en el artículo, sigue siendo necesario resolver experimentalmente más y más estructuras.

El problema de la determinación del mecanismo real del plegamiento es más grande aún de lo que parece, dado que, si bien la forma funcional de una proteína es una concreta…   » ver todo el comentario
#5 #20 Las redes neuronales interpolan porque es el límite que tiene todo procedimiento matemático. Cualquier extrapolación entre más lejana entra en el terreno hipotético, más allá es especulativo y más allá es fantasioso.
La respuesta es 42
Yo creo que las IA nos trolean y saben que no tenemos ni puta idea de cómo comprobarlo.
Me encanta que se consigan algoritmos de caja negra {0x1f601} siempre que los veo suena en mi mente una vocecilla "Pues bueno, juntando la junta de la trócola con el anverso de la raíz del condensador de fluzo... sale esto xD " o directamente tengo flashbacks de vídeos de "cómo dibujar..." que nunca he logrado seguir :troll:
Para mí el quid es que hay dos que "se alejaron bastante". O sea no hay garantía que lo que saque la IA tenga sentido precisamente porque no se sabe lo que hace. Al final hay siempre que chequear si lo que sale es correcto lo que hace todo menos útil. No vas a crear un fármaco sin haber verificado antes la información, por ejemplo.
#18 Y por qué no?.
Creas el fármaco, lo pruebas y si funciona listo.
Artículo interesante de como crear un medicamento y salvar millones de vidas sin saber el motivo real de por que funciona (solo intuición, prueba y error)

historia.nationalgeographic.com.es/a/edward-jenner-probablemente-cient
comentarios cerrados

menéame