Un grupo de investigadores científicos del Centro Médico Beth Israel Deaconess compararon las capacidades de razonamiento de un modelo de lenguaje grande (LLM) directamente con el desempeño humano utilizando estándares desarrollados para evaluar a los médicos. Los resultados arrojaron pocas dudas: ChatGPT-4 superó a los residentes de medicina interna y a los médicos tratantes de dos centros médicos académicos en el procesamiento de datos médicos y la demostración de razonamiento clínico. Al contrario de lo que pueda parecer,es una buena noticia
|
etiquetas: ia , chatgpt4 , grupos de médicos , procesamiento y razonamiento clínico
Un medico con esa ayuda puede hacer mucho bien, y ne menos tiempo. ( incluso si la IA le orienta en que pruebas hacer para descartar cosas)....
Pero la decisión final la tomará un medico humano, sino el responsable seria la entidad y teniendo en cuenta que los mas interesados en esto van a ser las privadas (por lo de pagar menos sueldos) no van a querer ser los responsables directos de una negligencia...
youtu.be/mUFoHThw4Rc?feature=shared
La AI es una fórmula matemática muy compleja que aprende de sus propios errores.
Lo que acabas de de diciendo es como culpar al inventor de la las hojas de cálculo (Dan Bricklin) por todos los errores que han cometido las personas que usan hojas de cálculo.
Quizás estoy equivocado pero pero solo puedo relacionar tu comentario con los comentarios de los políticos que no tienen ni idea de lo que dicen.
Te pido disculpas por adelantado por ser tan directo.
En lugar de hacer IAs que limpien culos a viejos, desatranquen cloacas, cultiven y recogan cosechas, minen cobalto, etc, lo que están haciendo las IAs es los trabajos intelectuales tipo médico, escritor, ilustrador, audiovisual. Trabajos que se hacen tras muchos años de preparación, vocación, y creatividad.
Y es así porque símplemente es más fácil. Todo lo que sea procesar información es sencillo para un ordenador. Interactuar con el mundo real es complicado, caro y requiere muchísimo mantenimiento. Y las empresas van a lo fácil y lo barato, claro.
Y evidentemente estas IAs aprenden de forma similar a cómo aprenden los humanos, porque están construidas siguiendo los mismos principios de redes neuronales y refuerzos: aprendiendo de otros.
Pero un imitador humano requiere años de entrenamiento y experiencia para llegar a un nivel similar al del creador original, lo cual limita la cantidad de imitadores que puede haber.
Y mientras que un imitador o dos (o cien) pueden hacer un cierto daño relativamente menor a la viabilidad económica de la actividad de un creativo, cuando la imitación se automatiza y mecaniza con IA, entonces lleva una fracción minúscula de tiempo aprender a imitar el estilo de un creativo (por poner un ejemplo, copiar el estilo de un artista que vive de sus ilustraciones, cómics, música, voz, escritos, etc), y lleva una cantidad minúscula de tiempo y dinero producir morralla en el estilo de ese artista en masa, destruyendo por completo la forma en que esa persona, o más bien, ese colectivo entero, se ganaban la vida.
No vayamos al símil de los vendedores de hielo y la invención de los frigoríficos. Un vendedor de hielo no dedica un tercio de su vida a prepararse para vender hielo antes de venderlo, mientras que un médico, o un artista, sí que lo hacen.
Si bien no le veo buena solución a este problema, porque el "progreso" es imparable, lo mínimo es mostrar empatía con los que se ven afectados, y ponernos en su lugar. Porque al principio irán a por los artistas y los médicos, pero a nosotros no nos importará porque no somos artistas ni médicos. Pero luego vendrán a por nosotros.