edición general
187 meneos
2450 clics
Este vídeo de Nvidia es el primero donde la IA apunta directamente a los puestos de los sanitarios: una enfermera virtual a 9 dólares la hora

Este vídeo de Nvidia es el primero donde la IA apunta directamente a los puestos de los sanitarios: una enfermera virtual a 9 dólares la hora  

En el vídeo vemos a una paciente en su casa comenzando una videollamada con una especie de enfermera virtual impulsada por IA llamada Rachel. La “agente de IA” le indica verbalmente a la paciente cómo tomar penicilina. Unos segundos después, Rachel le dice que le transmitirá toda la información que han compartido al médico humano real de la mujer.

| etiquetas: nvidia , ia , enfermero , médico , sanitario
Comentarios destacados:                          
Si no se inventa cosas como chatGPT....
#1 Lo del alucinar es cosa de todos los LLMs, no sólo chatgpt.
Así que siempre cabe esa posibilidad.
#3 el pobre medico que este detrás comprobando si las dosis están bien puestas etc encima es el que se comerá el marrón de una intoxicación
#4 También hay errores humanos donde se aplican mal las dosis. No es cosa solo de la IA.
#38 Por eso se suele aplicar el triple check, tanto medico como farmacia y despues la enfermera que lo aplica verifican que sea correcto.
#38 habria que ver estadisticas.
#4 pues hace muchos años (ahora no sé) la información de tráfico la daba un mago de Oz.

Tu hablabas, un operador te entendía y te respondía con una grabación. La mitad de las veces tu preguntabas por el tráfico en una carretera y te respondía con que había un atasco en otra a 100km porque era lo único que tenía registrado.

El usuario no me daba la murga al operador porque pensaba que hablaba con una máquina y el operador podía atender muchas más llamadas.

No descartes que una ia de Oz sea una buena idea. Al menos para el proveedor del servicio.
#56 bueno, eso es así ya en muchas empresas, con plantillas de respuesta automática total o parcial

Por ejemplo en contratación por teléfono casi siempre es una máquina la que te lee los términos del contrato para grabarte el sí acepto
#3 Ya descubrirás si el cancer que te diagnostica es verdadero o inventado... :troll: :troll: :troll:
#6 Conozco de primera mano al menos 5 errores de diagnóstico cáncer, por colegiados de carne. Uno de ellos fue un diagnóstico erróneo de cáncer, y lo curioso que por el estrés se le puso canoso el pelo.
#3 pasa exactamente igual con los humanos.

Lo que pasa es que lo que en una máquina hemos atribuído rápidamente a que se lo inventa - no sé por qué motivo - en un humano lo llamamos incompetencia, falta de capacidad, hijoputismo, saturación, falta de motivación...

#1
#50 La IA (por ahora) no tiene intencionalidad. Si da un resultado erróneo, es un fallo de cálculo.
#57 ni tiene intencionalidad ni inventiva.

Y los humanos también tienen fallos de cálculo. Por supuesto mucho antes que las IAs.
#50 Pero es que es una máquina, el fin de diseñar una máquina es que virtualmente tenga 0 errores.

Qué bueno, esto hace 2 años no era técnicamente posible, con fallos y todo es un gran avance.
#64 eso no lo discuto.

De ahí a atribuirle rasgos humanos como la inventiva... :roll:

Empezando por el propio nombre. "Inteligencia artificial". Mal comienzo.

Una herramienta más para el control de masas a traves del concepto. Una forma más de infundir miedo.
#69 Ahí tienes razón, no hay que atribuirle rasgos humanos.
Utiliza otra lógica.

Hay estudios que dicen que algunos son más precisos al utilizar amenazas y otras técnicas, que al contrario que los humanos no es especialmente útil la amabilidad.

Lo del control de masas no lo veo. Creo que el mal uso del termino "inteligencia artificial" es sólo marketing. Y esto lo digo cómo lector de Asimov.
#74 ¿y qué es el marketing si no el control absoluto y definitivo de las masas?
#75 Desde mi perspectiva clásica sólo es vender de manera que haya muchos beneficios.

Pero el control también es marketing para vender a corporaciones y gobiernos, que no dejan de ser los clientes más jugosos.

También es que yo trasteo en temas de IA que se puede ejecutar en tu hardware y es de código abierto (Pero no libre del todo), con lo cual he visto también se puede usar para evitar el control (Si tienes acceso al hardware ).

Por cierto, manda huevos que Musk sea de los que más ha liberado de un llm funcional, y que Zuckerberg apueste (de momento) porque sean de código abierto.
#77 un rato que te aburras y quieras hacer una buena obra, podrías indicarme por dónde empezar con las IAs que se pueden ejecutar en hardware propio. Es algo que me llama la atención, pero no me atrevo a curiosearlo, pues me parece demasiado espeso el comienzo.

Gracias de antebrazo.
#91 www.meneame.net/story/ejecuta-tu-propio-chatgpt-local-gratis-sin-censu

Luego te comento un poco más de lo poco que sé, que ando liado.
#91 Respecto a los ggufs, que es el formato más popular ahora mismo, cada vez más autores los publican directamente.
Pero aparte de TheBloke (que parece estar sabático) están huggingface.co/LoneStriker y huggingface.co/bartowski

En reddit.com/r/localllama/ puedes encontrar mucha información, pero es un poco caótico y hay cosas para diferentes niveles.

Yendo a algo más avanzado, cada vez hay más proyectos que intentan hacer el tuneado de LLMs más sencillo.
Por ejemplo, está…   » ver todo el comentario
#50 Efectivamente la IA sí tiene "alucinaciones" pero personalmente no me gusta llamarlo tal, es atribuirle una "cualidad" humana gratuitamente, y por otra parte creo que tiene una connotación subjetiva innecesaria.

El problema es que estamos acostumbrados a los errores humanos y son "comprensibles", pero la IA al ser una caja negra, no sabemos cómo aprende y por qué comete ciertos errores. De la misma forma que ayer había otro artículo en el que no se comprendía totalmente como podía aprender ciertas cosas, por ejemplo extrapolar lo aprendido a otros idiomas, me parece normal que saque conclusiones inesperadas...
#3 Si es Medical Software hay que validar que dichas alucinaciones no afecten de forma negativa al tratamiento médico, y sobretodo estén en valores de órdenes de magnitud inferiores a los errores típicos de enfermeros humanos.
Si no es así, la FDA nunca aprobará su uso.
#53 Si, las homologaciones van a ser muy difíciles en países serios.
Y con razón.

Igualmente esto no es más que un anuncio publicitario para vender hardware.
#1 a ver si te crees que los médicos aciertan siempre xD
#10 De echo cualquier AI de reconocimiento de imagenes es infinitamente superior reconociendo tumores o cancer en radiografias o cancer de piel a partir de fotografias que el mejor medico del mundo
#40 correcto. Pero de ahí a lo que dice la noticia hay un trecho gigante.... La IA actualmente es buena para cosas de "puertas para dentro", la interacción con humanos está lejos de ser aceptable.
#40 Sí, aunque añadiría algo, depende del algoritmo pero recuerdo estar en una charla sobre ello, y una de las cosas que mencionaban es que el algoritmo no solo era mejor sino que además era más predecible, o dicho de otra forma reproducible. En ese caso es un algoritmo que se especializa mucho en un problema determinado, mientras que aquí ocurre lo contrario.
#40 "infinitamente" bajale un par de magnitudes jajaja
#1 ChatGPT alucina porque toma como base "el todo". Pero si a un LLM le das como base por ejemplo un vademécum con los fármacos y sus dosis, no va a alucinar.

¿Tu respondes igual a un examen teniendo los apuntes delante que sin tenerlos?
#34 con retrieval augmented generation todavía alucinan.
#39 Porque estamos en pañales y han sido probados con LLM con ventanas de contexto pequeñas que es lo que van a mejorar los LLM de este año.
Espérate a 2025 y veamos si siguen alucinando.
#45 en 2025 se estará a otra cosa. Tal vez ni siquiera IA generativa. BERT tuvo su momento y pasó, lo mismo pasará con los modelos generativos actuales.
#34 Los LLM alucinan en todas sus variantes actuales sin excepción, por un motivo muy sencillo.

Dicho súper resumidamente, un LLM es un modelo de predicción de texto. Según lo que ha "aprendido", intenta buscar el texto que sigue a lo que se le ha entrado.

El problema de esto, es que el modelo no sabe decir "no lo sé". Va a darte la "respuesta" que el sistema piense que sea la más probable. Y si no sabe la respuesta correcta, se la inventa. Porque es técnicamente incapaz de decir "no lo sé".
#62 Correcto:

Podéis probar por ejemplo a preguntarle a ChatGPT esto: "Si una rana salta cada día 3 metros y cae 1 metro, cuánto tardará en salir de un agujero de 40 metros?"

Te va a decir 20 días, pero tú sabes que tarda 19 días. Se lo corriges y te va a aceptar que estaba equivocado, pero es que ni la lógica ha aplicado, simplemente ha predecido texto, y lo ha hecho mal.
#73 Tarda 20 días. En 18 días llega a los 36. En 19 llega a los 38. Y al día 20 sale fuera.

Y GPT-4 lo saca bien.

GPT-4: 1
Humano: 0
#95 Tarda 19 días...
#100 ¿Perseveras en el error aún después de haber sido corregido? También eso lo haces peor que GPT-4. Vas a ser fácil de sustituir.
#62 Técnicamente puede evaluar la probabilidad de una oración a posteriori. Así que pones a un LLM responder, y a otro indicando si la respuesta es plausible. Si no lo es, respondes "no sé".

También puede hacerse en el fine tuning y de hecho se hace.
#1 No es complicado, se hace un estudio comparativo de 10.000 consultas y se ve quién tiene mayor porcentaje de acierto en el diagnóstico.
Si la IA con su acceso instantáneo a enormes bases de datos de enfermedades más a todos los los manuales acreditados de medicina existentes; o el médico humano con su cerebro tendente a olvidarse de cosas con el tiempo, que su rendimiento se ve condicionado a fases periódicas de cansancio, estrés, etc..

Y se compara cual tiene mayor porcentaje de acierto en el diagnóstico. Después de ahí ya que cada uno decida si prefiere ser diagnosticado por una IA o por un humano.
#86 Si quisiéramos evaluar las cosas con tanto detalle, también analizaríamos si conviene reducir la duración de las guardias. No todo se optimiza en el capitalismo.
#98 Yo no lo veo tanto como seguir criterios de eficiencia capitalista, sino más bien criterios meramente de salud, que es el que debería imperar en estos casos.
Como digo, una vez que sepamos los porcentajes de acierto medio de cada tipo, ya cada uno que decida la metodología de diagnóstico que crea que le pueda convenir más para su salud.
#1 ChatGPT lleva nada y menos. Parece que no sois capaces de ver a largo plazo...
#1 Estas mierdas se las dejo a los norteamericanos y sus libertades.
No me gustaría ser el responsable del proyecto ese… a mi me parece cojonuda la idea pero alguien tiene que certificar que la IA está preparada para tratar pacientes… lo mismo que los medicos estudian, hacen exámenes y practicas.
#2 "alguien tiene que certificar que la IA está preparada para tratar pacientes"
O para conducir, o para impartir justicia, o para diseñar casas seguras, o para defender a un cliente humano contra una resolución tomada por una IA, o para...

Si nos paramos a pensar, una vez certificada una IA para cualquier tarea, se puede fabricar en serie y acabar con conductores, abogados jueces, médicos, pilotos... etc. Incluso podemos certificar una IA para que emita certificaciones... :-)
#5 ¿Como se programa una IA de juez o fiscal para ser "agradecida" con los que le han puesto ahi? :troll: :troll: :troll: :troll:
#7 Podría ser una "característica emergente", y demostrarnos que es inevitable... ;)
#7 Transacciones automáticas a suiza
#7 Eso es extremadamente facil, de hecho todos los dias creamos maquinas "agradecidas con el poder"; las empresas. Las empresas no son seres humanos sino maquinas con engranajes humanos cuyo unico objetivo es hacer dinero y mira como funcionan... algunas venden armas, inician guerras para aumentar sus beneficios o derrocan gobiernos.
#7 los datos de entrenamiento van a ser casos reales, vendrá así de fábrica
#5 O para asesinar a gente en guerras.
#11 Pues sí, aunque la Historia nos demuestra que tomar la decisión de matar gente en la guerra nunca ha sido un problema para los humanos... y no solo en la guerra me temo.
#12 Para los humanos, siempre ha sido un problema la primera vez. Con los drones podemos saltarnos esas "reticencias morales".
#11 Lo bueno es que las víctimas colaterales se reducirían enormemente. Y lo de matar a personas desarmadas con una bandera blanca quizás se podría evitar. Es más, le quitaríamos la parte divertida a matar y quizás se matase menos.
#82 Que hagan guerras de robots solo y que nos dejen en paz los viejos con sus guerras.
#85 Con una inteligencia artificial la guerra se podría hacer de forma más rápida y eficaz. Matando al dirigente enemigo.
Difícilmente alguien decidiría atacar a otro país si sus probabilidades de muerte inmediata fuesen enormes.
#5 El que las certifique debería ser el responsable penal y económico de todos los resultados de su actividad
#21 si y no. Por qué certificar no es magia, no es decir esto funciona con la mano en el corazón o que el se haga responsable.

Se tiene que reunir mucha gente que sabe del tema y crear un procedimiento para demostrar que eso hace lo que dice con una probabilidad de error aceptable (y como actuar en esos casos).

El certificador comprueba que todo funciona como dice la documentación y que está cumple los standares
#2 y alguien tiene que responsabilizarse de las cagadas.

Si esa IA mata a alguien mientras lo "cura" no solo habrá que soltar pasta, sino que habría que buscar a alguien a quien meter en la cárcel.

El tema legal con las IAs va a dar para mucho.
#8 justo uno de los proyectos que tengo en mi portfolio es un sistema para verificar y aportar recomendaciones a gente q escribe contratos, en nuestro caso, siempre hay una persona que valora y acepta los cambios. Hay mucho camino por recorrer.
#15 pero son conceptos diferentes.

Un programa basado en IA que ayude a alguien con conocimientos es lógico y común, incluso antes de la IA.

Los ingenieros ya no hacen los cálculos a mano sino con programas, y los conductores usan GPS.

Pero algo muy diferente es un programa que haga de ingeniero o un autopilot.

Un programa que aconseje a un sanitario que medicina dar, y que el sanitario a su criterio la use, es diferente a un programa que te prescriba medicinas.
#16 por supuesto, para cosas criticas dudo que el factor humano vaya a desaparecer a corto plazo. En teoría, los aviones podrían volar sin piloto pero, volarías en una linea aérea sin pilotos ?
#17 Ya me lo estoy imaginando.....  media
#15 que es eso de tu portfolio?
#54 proyecto < programa < portfolio  media
#8 la culpa sera del paciente. Ya meteran en el contrato del servicio en letra bien pequeña que va a ser atendido por una IA y que puede fallar y que es responsabilidad del cliente hablar con médico capacitado....

Eso sí, ya se habrán "ahorrado" millones de euros/dólares en enfermeras/médicos y les dara igual.
#8 no hables en futuro. YA hay jucicios por errores de IAS, www.infobae.com/estados-unidos/2024/02/19/una-aerolinea-debera-compens
En este caso, un chatbot de una aerolinea dio una informacion incorrecta sobre como justificar un descuento y la aerolinea intento librarse con "Es que el chat es un ente independiente... que le demande a el...". 
Vamos, esta claro que quien se frota las manos son los de seguros, sera normal que cualquier sistema de IA tenga su propio seguro de responsabilidad...  pero como se dice, si haciendolo una maquina, el empresario se ahorra 1ct, lo hara una maquina... 
#2 En EEUU hay libertad, con poner un mensaje de advertencia vale.
#20 #2

MENU
--------
1. ¿Quiere que le atienda un enfermero real y que se haga responsable de los errores? 300 dólares la hora
2. ¿Quiere que le atienda un enfermero virtual y que no se haga responsable de los errores? 9 dólares la hora
3. Muérase
#31 4. ¿Quiere que le atienda un enfermero virtual supervisado por un enfermero real que será el responsable último? 50 dólares la hora

Esa es la solución: toda IA tiene que tener un humano que se responsabilice de ella: menor carga de trabajo para los humanos, menos humanos necesarios para trabajar (reducción de jornada) y menos errores debidos al cansancio, falta de conocimientos y actualización, etc.
#2 Siento decirte que nadie certifica eso que comentás. El MIR es el único filtro medianamente real que pueden tener, y anda que no hay médicos ejerciendo sin el MIR.
#37 Hombre, los títulos de medicina tampoco es que los regalen, yo diría que eso ya certifica algo.
Ni de coña me fío de una IA para un diagnóstico... Como apoyo o segunda opinión aún, pero siempre con aprobación de un médico....
#14 Mira eso va a ser como el paradigma de los cohetes reutilizados.

Hace 5 años ni loco se subiría un astronauta a un cohete reutilizado, hoy ni loco se sube un astronauta a un cohete que no haya sido probado antes.
#14 Ya. Pero si eso no se reafirma con el voto, te atenderá quien decidan que te atienda.

Prostatron powered by ChatGPT.
#14 En oncología y cardiología las IAs están dando muy buenos resultados, eso si, como copiloto. Creo que estamos muy lejos aún de dejar un hospital en manos de la IA :-P

Vaya mundo de inútiles nos quedará si todo se reemplaza con IA :-P
#67 inútiles y pobres
#14 pues yo pienso al revés... Me fio más de una IA para un diagnóstico y como segunda opinión un médico. Me parece un mejor combo y que podría funcionar y solucionar muchos problemas actuales en la sanidad.
#70 Es otra opción, respetable ;)
Como herramienta PARA MEDICOS me parece cojonuda.
Como reemplazo, pues otro regalito de mierda del capitalismo.
a 9 dólares la hora? Pues sale mas cara que una enfermera de verdad, sobre todo si es en remoto, donde la puedes "alquilar" en cualquier país latino por la mitad :troll:
#13 Había un artículo por ahí de que muchos "robots" actuales (los repartidores y tal) era gente desde el tercer mundo teletrabajando.
Eso, carguémonos encima un sector que ya es precario como el de los médicos y enfermeros por unos chat bots…. Esto no deja de ser un paso más del capitalismo para cargarse al proletariado y no hacéis más que aplaudir. Ojalá limiten o prohiban todo esto de las IA que solo traen mentiras y humo
#58 Misma reacción de algunos cuando se empezaron a utilizar los primeros telares mecánicos.

La realidad es que abarata y hace accesible necesidades básicas al tiempo que permite que se creen oportunidades para nuevas profesiones en actividades nuevas o que antes eran un lujo.

Es muy simple, el día que no sea necesario trabajar será un gran día.
#87 no tiene nada que ver, ahora hay una plutocracia fascista (empezando por Elon) controlando todo el tema de IA para hundir a los trabajadores
#88 Confundes progreso con desigualdad. Luchar contra la desigualdad no es oponerse al progreso
En EEUU crearon a Barrio Sésamo por la poca calidad de la educación infantil.

Nada nuevo.
Me parece que está enfocado para ser utilizado como un agente de ventas más para las farmacéuticas que otra cosa. "Tómate estas pastillas y estas otras, y estas otras que ahora te digo, puedes comenzar lo antes posible? las acciones de Pfizer están cayendo y necesitamos mejorar los datos de este cuatrimestre, gracias"
Gente que dice que "a ver si te crees que los médicos aciertan siempre LOL". La próxima vez que te duela algo, sal a preguntar al primero que veas por la calle.
El sector sanitario necesita de una fuerte modernizacion, seguimos atendiendo como en el siglo XIX.

Encuentro que las enfermedades mas frecuentes/leves, se podrian estandarizar e incluso tratar sin necesidad de recurrir a un medico. Dejando pues, la consulta a medicos para casos mas excepcionales/importantes.

No tiene sentido que tenga que ocupar tiempo de un medico para una otitis cuando todos sabemos que el 90% de los casos se va a resumir en recetarme unos antibioticos para el oido y…   » ver todo el comentario
Cuando una IA de estas la cague gravemente, ¿Quien va a ser el responsable?

Para aclarar estas cosas si que es urgente redactar nuevas leyes
#20 ni siquiera sé como funciona la responsabilidad en otros casos...

Si un peluquero te electrocuta al usar una plancha de pelo por un defecto en la plancha, ¿de quién es la culpa? ¿del peluquero o del fabricante?
supongo que aquí igual. pero ni idea de como sería el caso del peluquero siquiera...
#23 Del peluquero.
Es el responsable de tener en condiciones su instrumental antes de usarlo. Y es el que me ha quemado.

El que no es responsable en ningún caso es la plancha.
#24 en ese caso, el hospital o servicio de salud que lo use será el responsable. pero vaya, es mi extrapolación usando sentido común...
#27 Así debería ser.

Pero no las tengo todas conmigo. Precisamente gran parte del negocio pasa por eludir esa responsabilidad
#28 lo pondrá en las condiciones de contratación del seguro médico. seguro con IA y fallos posibles 40€ mes, seguro con persona: 400€
#29 Lo mismo hay un momento que hay que cambiar las tarifas
#24 > Es el responsable de tener en condiciones su instrumental antes de usarlo.
Solo hasta un punto razonable. Si la plancha tiene un fallo interno que el peluquero no conoce, entonces no tiene responsabilidad, sería el fabricante de la plancha y quizás el distribuidor.
#20 un programador novato que firme un certificado por 200€ y al que le daremos un puesto tipo "coordinador de garantías" o algo así.
#96 Ni idea, los traumas de cada uno habrá que preguntárselos a una IA :shit:
Cobra mas que un medico español a la hora....
#18 Un médico con el MIR cobra bastante más que eso.

No sé cómo pagarán las horas de guardia de un residente de primer año, pero cuando mi mujer hizo el MIR también cobraba de media más que 9$ la hora.
#19 #18 depende de la comunidad autónoma, pero que yo sepa en España nadie está por debajo de 9 €.

lo que yo conozco de guardias son a 12€ las localizadas, a 24€ las presenciales
Por lo que veo solamente hace un seguimiento, y la demo deja bastante que desear, pudiendo haber utilizado a una persona mas real, han utilizado un muñeco virtual en el que sus expresiones eran bastante malas, si nvidia quiere impresionar al mundo con algo, con este video no lo han conseguido.

y como siempre, el paciente siempre puede mentir, me he tomado las pastillas, si, todos los días a la hora pautada, mi mujer, que es auxiliar se ha encontrado pacientes que no se las toman, al encontrarse un puñado de pastillas en el cajón de la mesilla de noche

Me parece muy buena idea, como un control a mayores, para mejorar la prestación del servicio, pero por ahora no veo que puedan sustituir a nadie.
Siempre van a por los que ya son relativamente baratos. Estoy por crear una IA para reemplazar a los C*Os y ahorrar a los inversores millones de ¥€$

...y, sí. Es una referencia a Ghost in the Shell: SAC.
#41 ¿Qué son los C*Os?
#48 ¿CEOs?
#94 Me imagino, pero ¿por qué censurarlo con un asterisco?
#96 Porque es un comodín, el asterisco en muchos softwares representa cualquier cosa.

Y no solo está el CEO, está el CTO, CPO, COO… y así con infinidad de cargos ejecutivos.
Curioso. Precisamente yo creo que de los pocos trabajos que están a salvo de ser sustituidos por una IA están aquellos donde el trato directo con la persona es importante como enfermer@s o maestr@s infantiles.
#30 Estamos hablando de muchos países donde si no tienes un contrato de trabajo no tienes Sanidad, 9€ la hora es un chollo.
Quien a día de hoy no crea que su empleo está amenazado por una ia o por las automatizaciones, que vuelva a pensar, a mi lo que me preocupa es si los gobiernos lo tienen claro o no, porque esto es imparable y los tiempos del desarrollo de las ias no es el periodo de adaptación humano...
La que te hace pre colonoscopia, sobre todo esa sabe una mierda.
quién no querría dejar en manos de una IA su salud? exacto un tecnooptimista neoliberal
Me llama la atención que la imagen y los gestos de la enfermera virtual no estén más naturalizados utilizando técnicas de IA, aunque sólo fuese para el video, teniendo en cuenta lo importante que es que la información transmitida sea transmitida con confianza.... el efecto WOW hubiese sido bastante mayor
«12
comentarios cerrados

menéame