edición general
232 meneos
827 clics
La inteligencia artificial y la robótica descubren firmas ocultas de la enfermedad de Parkinson

La inteligencia artificial y la robótica descubren firmas ocultas de la enfermedad de Parkinson

«Estos métodos de inteligencia artificial pueden determinar qué células de pacientes tienen en común que de otro modo no serían observables», dijo Samuel J. Yang, científico investigador de Google Research. «Lo que también es importante es que los algoritmos son imparciales: no se basan en ningún conocimiento previo o ideas preconcebidas sobre la enfermedad de Parkinson, por lo que podemos descubrir señales completamente nuevas de la enfermedad»


Original:www.nature.com/articles/s41467-022-28423-4

| etiquetas: inteligencia artificial , ia , ai , robótica , firmas ocultas , parkinson
116 116 0 K 347 ciencia
116 116 0 K 347 ciencia
La IA trabaja con los datos que le damos y encuentra patrones, lo mismo que hacen los humanos (aunque con mayor capacidad de abstracción).

Y por lo tanto, está sujeta a caer en los mismos errores que los humanos: que los datos de partida tienen que ser buenos y no tener sesgos para empezar, y que la correlación no implica causalidad...

"Lo que también es importante es que los algoritmos son imparciales: no se basan en ningún conocimiento previo o ideas preconcebidas sobre la enfermedad…   » ver todo el comentario
#1 Me encanta cuándo vais de expertos y se nota que habéis oído hablar del tema de pasada. "Las IA no funcionan como un algoritmo". Ya, claro...
#2 A ver, la IA puede hacer eso que dices y lo hace (en radiografías, tomografías y otros métodos de toma de imágenes o muestras). Del mismo modo que se hace con muchos otros algoritmos de clasificación, cada uno tiene fortalezas y debilidades. Lo que yo digo es que tampoco se puede confiar a ciegas en una IA, que se puede usar para detectar cosas, pero luego hay que analizarlas y estudiarlas convenientemente.

El blockchain igualmente es otra herramienta que tiene sus usos y es perfectamente…   » ver todo el comentario
#6 Estás hablando de las redes neuronales y se está avanzando bastante en ese aspecto. Y no todo en IA son redes neuronales. Tienes árboles de decisión y otros algoritmos similares que son perfectamente interpretables. Y te repito, la frase "no funcionan como un algoritmo" carece de sentido. Que sea interpretable o que sea más o menos determinista no tiene nada que ver con que sea o se comporte como un algoritmo.
#8 A ver, un elegir entre A o B es depurable, una red neuronal de una única neurona es depurable, etc.

Un árbol de decisión complejo, una red neuronal multicapa de cientos de neuronas, etc. NO son depurables. Los huamnos no tenemos capacidad de proceso para esas complejidades o si prefieres verlo así, es nada práctico siquiera ponerse a intentarlo. Sabemos cómo funcionan, si, podemos hacer una traza si queremos, pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo…   » ver todo el comentario
#12 Tienes un fallo de concepto bastante grande con lo de algoritmo. Parece algo estás metido en el tema, pero te falta revisar conceptos, más profundidad y sobre todo algo de humildad, chaval.

Primero, las redes neuronales son algoritmos, te pongas como te pongas. De hecho, cualquier cosa que estés ejecutando en el PC es un algoritmo, que como bien has dicho, es una receta, una serie de instrucciones. Que luego de un resultado que para un humano no sea interpretable no lo…   » ver todo el comentario
#16 "Primero, las redes neuronales son algoritmos, te pongas como te pongas."
¿He negado yo la mayor? hablamos de dos cosas distintas, me temo. Tú de la arquitectura, yo de la red entrenada o camino de ser entrenada para corregir un problema o sesgo en los resultados. Modificar los pesos, no las relaciones.

He dicho: depura una red neuronal de una neurona. Como algoritmo que es, podrás. Ahora, depura una complicada, con varias capas y muchas neuronas por capa. Agárrate los machos.…   » ver todo el comentario
#8 Efecticamente, ya hay métodos que permiten una explicabilidad del modelo que no dependen del algoritmo que se ha usado y que funcionan igual de bien con redes neuronales que con árboles de decisión, como son los valores SHAP.

#5 Es que si a un algoritmo sólo le muestras una parte de la realidad, sólo será capaz de intentar predecir esa realidad. Los algoritmos basados en aprendizaje por refuerzo precisamente buscan que el sesgo no venga dado por los datos, aunque puede venir por cómo has generado el entorno donde aprende y las acciones que puede llevar a cabo. Pero sí, es complicado no introducir sesgos de forma no consciente.
#6
A ver, si ya lo se, pero meterles a todo IA o blockchain porque es la moda es ridículo.
Ya sabemos como acaba la cosa
#4 #1 no va del todo desencaminado. La IA es un algoritmo que se rige por unos datos y pesos definidos en el proceso de aprendizaje previo. Y sí... si los datos con la que la has entrenado son sesgados, los resultados pueden tener sesgos.

aquí unos ejemplos

www.eldiario.es/tecnologia/sesgos-genero-algoritmos-circulo-perverso-d
www.elmundo.es/tecnologia/2016/03/28/56f95c2146163fdd268b45d2.html
www.lavanguardia.com/tecnologia/20211114/7856262/inteligencia-artifici
#5 De ahí mi primera frase. No le quitaba razón con lo de los datos sesgados. Mi comentario va más encaminado a la última parte dónde desmiente la frase hecha por uno de los investigadores cuándo en la cita que puse demuestra claramente que no sabe del todo bien lo que habla.
#4 Siguiendo todo el hilo, los espectadores aún estamos esperando que rectifiques este comentario que va de un sobrado que espanta, aunque luego tienes los santos cojones de quejarte precisamente de eso.

Marca menéame.
#2 #1 ¿Os puedo preguntar por vuestros credenciales? ¿En que bar estáis?
#3
En el mismo que tu.
#23 prever

Del lat. praevidēre.

Conjug. c. ver; part. irreg. previsto.

1. tr. Ver con anticipación.

2. tr. Conocer, conjeturar por algunas señales o indicios lo que ha de suceder.

3. tr. Disponer o preparar medios contra futuras contingencias.
#31 No has entendido. Escribiste "preveer", que no existe.

Prever es ver con antelación.
Proveer es abastecer.

Preveer no es nada.
#32 Ah, vale. Bueno, se me fue una letra...
#1 No estoy de acuerdo con esto

Y por lo tanto, está sujeta a caer en los mismos errores que los humanos

Los humanos, para lo bueno y para lo malo, analizamos siempre a través de la emoción,
#9 Si los datos de entrada los damos los humanos (podemos sesgar los resultados antes de empezar), la configuración de la red la damos los humanos (podemos elegir una red ineficaz o contraproducente para el tipo de clasificación que necesitamos), el entrenamiento lo damos los humanos (podemos infraentrenar, dejando márgenes de error demasiado grandes o podemos sobreentrenar, consiguiendo resultados poco flexibles e inadaptables a datos nuevos) e incluso la interpretación sobre los resultados la…   » ver todo el comentario
#11 Estás confundiendo percepción con consciencia... Podemos ser muy asepticos a la hora de preparar los datos, pero nunca podemos evitar la emoción al interpretarlos. Las máquinas, de momento, no interpretan.
Como dato nada más, he sido analista de datos unos cuantos años y soy informático especializado en IA
#13 " Podemos ser muy asepticos a la hora de preparar los datos, pero nunca podemos evitar la emoción al interpretarlos. Las máquinas, de momento, no interpretan."

¿Qué es interpretar? interpretar no es más que aplicar sesgos adquiridos a tus datos para darles un sentido, es usar tu experiencia para sacar conclusiones de los datos. Eso, si lo tomas con cuidado, es lo que hace una IA (la experiencia es la nuestra, que se la damos como conjunto de datos de entrenamiento)

Pero no has sido filósofo de pacotilla :-P
#14 Quizás no sea el foro para explicar como funcionan las redes neuronales, la minería de datos o los sistemas expertos

Lo de filósofo de pacotilla... ILLA, ILLA ILLA
#15 Las redes neuronales simplemente detectan y hacen patentes patrones, repeticiones de datos como los que les hemos dado mil y una veces a ver previamente. O sea, hay una experiencia detrás, les hemos dado un conocimiento, una información, unos sesgos (buscados o no, pero en general, los buscamos -llámalos sesgos, resultados o patrones, buscamos una clasificación de los datos entre lo que queremos o no-). En los sistemas expertos, partimos de esa experiencia-sesgos y mediante árboles de…   » ver todo el comentario
#17 Creo que no has entendido bien como funciona la minería de datos o me la quieres colar.
Insisto, las maquinas no sacan ninguna conclusión, precisamente porque carecen de consciencia
#18 www.iberdrola.com/innovacion/data-mining-definicion-ejemplos-y-aplicac

Pues igual iberdrola también se equivoca...

" Insisto, las maquinas no sacan ninguna conclusión, precisamente porque carecen de consciencia "
¿Qué tiene que ver la consciencia con hacer elecciones sobre unos datos de entrada basándote en una serie de reglas o requisitos, que es a lo que se llama conclusión?
#20 Los artículos de divulgación son de divulgación, para que te intereses por el tema teniendo en cuenta que el lector no conoce el tema. La mineria de datos no es estadística, porque los resultados no se adaptan a un modelo, ese es un error de bulto, pero el artículo, por sser de divulgación comete muchos más
#24 Para eso están los usuarios que avisan de: oye, esto es lo que se entiende por la gente en general sobre este tema, pero avisados quedan de que esto tiene estas limitaciones, no se dejen llevar por el entusiasmo desmedido que esto no es la panacea.
#17 "Al final todo se hace para confirmar cosas que queremos encontrar, estamos sesgados y buscamos esos sesgos."

Error. En general los algoritmos de aprendizaje automático no buscan eso sino, si nos centramos en clasificadores, intentar predecir una variable objetivo (target, etiqueta, variable dependiente... como lo quieras llamar). Con ese algoritmo construimos un modelo que es entrenado con una serie de ejemplos e intentamos hacer esa predicción con datos nuevos. El…   » ver todo el comentario
#21 Sesgo:
7. m. Estad. Error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras.

Básicamente lo que hace cualquier algoritmo de clasificación es sesgar los datos... quieres quedarte con unos resultados frente a todos los demás. No lo llames error sistemático, que parece que es algo no buscado o incorrecto.

"El rendimiento del modelo lo medimos con una métrica objetiva, como pueda ser la tasa de acierto.…   » ver todo el comentario
#22

1. No no haces asunciones a priori. Las imágenes las tendrás etiquetadas como animales y personas y la red buscará las características que le permitan distinguir una de otra. Precisamente lo bueno de las redes es que no le tienes que decir qué características tiene que buscar, sólo definir la tipología de la red para que sea capaz de hacer reconocimiento de imágenes.

2. Tampoco. Nosotros sólo queremos que sea capaz de predecir la etiqueta de un nuevo dato. Si le estás pasando al modelo…   » ver todo el comentario
#25 "No no haces asunciones a priori. "
Si buscas pandas rojos, le pones imágenes de pandas rojos y otras imágenes de otras cosas, pero le indicas claramente que lo que tú necesitas son pandas rojos. Cada vez que pasas un ciclo de entrenamiento, las neuronas se retroalimentan con qué cosas o patrones de los pandas rojos se repiten y cuáles no lo hacen porque se corresponden con otras cosas. Pero sin indicarle qué ha hecho correctamente y qué no, una IA no sabe. O sea, si que tienes…   » ver todo el comentario
#1
Pero la gente se cree estas monsergas. Mira casado que decia que esto de la IA se puede enseñar a buscar canceres en radiografias y el blockhain se le podia poner hasta el microondas. No se sabe para que, pero ponselo.
comentarios cerrados

menéame