En el vídeo vemos a una paciente en su casa comenzando una videollamada con una especie de enfermera virtual impulsada por IA llamada Rachel. La “agente de IA” le indica verbalmente a la paciente cómo tomar penicilina. Unos segundos después, Rachel le dice que le transmitirá toda la información que han compartido al médico humano real de la mujer.
|
etiquetas: nvidia , ia , enfermero , médico , sanitario
Podéis probar por ejemplo a preguntarle a ChatGPT esto: "Si una rana salta cada día 3 metros y cae 1 metro, cuánto tardará en salir de un agujero de 40 metros?"
Te va a decir 20 días, pero tú sabes que tarda 19 días. Se lo corriges y te va a aceptar que estaba equivocado, pero es que ni la lógica ha aplicado, simplemente ha predecido texto, y lo ha hecho mal.
El problema es que estamos acostumbrados a los errores humanos y son "comprensibles", pero la IA al ser una caja negra, no sabemos cómo aprende y por qué comete ciertos errores. De la misma forma que ayer había otro artículo en el que no se comprendía totalmente como podía aprender ciertas cosas, por ejemplo extrapolar lo aprendido a otros idiomas, me parece normal que saque conclusiones inesperadas...
Espérate a 2025 y veamos si siguen alucinando.
La realidad es que abarata y hace accesible necesidades básicas al tiempo que permite que se creen oportunidades para nuevas profesiones en actividades nuevas o que antes eran un lujo.
Es muy simple, el día que no sea necesario trabajar será un gran día.
¿Cuál va a ser el certificado de la IA? ¿O simplemente hay que confiar ciegamente en que la información que proporciona tiene algo de fundamento y ya está?