edición general
187 meneos
2450 clics
Este vídeo de Nvidia es el primero donde la IA apunta directamente a los puestos de los sanitarios: una enfermera virtual a 9 dólares la hora

Este vídeo de Nvidia es el primero donde la IA apunta directamente a los puestos de los sanitarios: una enfermera virtual a 9 dólares la hora  

En el vídeo vemos a una paciente en su casa comenzando una videollamada con una especie de enfermera virtual impulsada por IA llamada Rachel. La “agente de IA” le indica verbalmente a la paciente cómo tomar penicilina. Unos segundos después, Rachel le dice que le transmitirá toda la información que han compartido al médico humano real de la mujer.

| etiquetas: nvidia , ia , enfermero , médico , sanitario
«12
  1. Si no se inventa cosas como chatGPT....
  2. No me gustaría ser el responsable del proyecto ese… a mi me parece cojonuda la idea pero alguien tiene que certificar que la IA está preparada para tratar pacientes… lo mismo que los medicos estudian, hacen exámenes y practicas.
  3. #2 "alguien tiene que certificar que la IA está preparada para tratar pacientes"
    O para conducir, o para impartir justicia, o para diseñar casas seguras, o para defender a un cliente humano contra una resolución tomada por una IA, o para...

    Si nos paramos a pensar, una vez certificada una IA para cualquier tarea, se puede fabricar en serie y acabar con conductores, abogados jueces, médicos, pilotos... etc. Incluso podemos certificar una IA para que emita certificaciones... :-)
  4. #1 a ver si te crees que los médicos aciertan siempre xD
  5. #20 #2

    MENU
    --------
    1. ¿Quiere que le atienda un enfermero real y que se haga responsable de los errores? 300 dólares la hora
    2. ¿Quiere que le atienda un enfermero virtual y que no se haga responsable de los errores? 9 dólares la hora
    3. Muérase
  6. #1 Lo del alucinar es cosa de todos los LLMs, no sólo chatgpt.
    Así que siempre cabe esa posibilidad.
  7. #3 el pobre medico que este detrás comprobando si las dosis están bien puestas etc encima es el que se comerá el marrón de una intoxicación
  8. #10 De echo cualquier AI de reconocimiento de imagenes es infinitamente superior reconociendo tumores o cancer en radiografias o cancer de piel a partir de fotografias que el mejor medico del mundo
  9. Ni de coña me fío de una IA para un diagnóstico... Como apoyo o segunda opinión aún, pero siempre con aprobación de un médico....
  10. #3 Ya descubrirás si el cancer que te diagnostica es verdadero o inventado... :troll: :troll: :troll:
  11. #5 ¿Como se programa una IA de juez o fiscal para ser "agradecida" con los que le han puesto ahi? :troll: :troll: :troll: :troll:
  12. #2 y alguien tiene que responsabilizarse de las cagadas.

    Si esa IA mata a alguien mientras lo "cura" no solo habrá que soltar pasta, sino que habría que buscar a alguien a quien meter en la cárcel.

    El tema legal con las IAs va a dar para mucho.
  13. Como herramienta PARA MEDICOS me parece cojonuda.
    Como reemplazo, pues otro regalito de mierda del capitalismo.
  14. a 9 dólares la hora? Pues sale mas cara que una enfermera de verdad, sobre todo si es en remoto, donde la puedes "alquilar" en cualquier país latino por la mitad :troll:
  15. #74 ¿y qué es el marketing si no el control absoluto y definitivo de las masas?
  16. #7 Podría ser una "característica emergente", y demostrarnos que es inevitable... ;)
  17. #2 En EEUU hay libertad, con poner un mensaje de advertencia vale.
  18. #1 ChatGPT alucina porque toma como base "el todo". Pero si a un LLM le das como base por ejemplo un vademécum con los fármacos y sus dosis, no va a alucinar.

    ¿Tu respondes igual a un examen teniendo los apuntes delante que sin tenerlos?
  19. Eso, carguémonos encima un sector que ya es precario como el de los médicos y enfermeros por unos chat bots…. Esto no deja de ser un paso más del capitalismo para cargarse al proletariado y no hacéis más que aplaudir. Ojalá limiten o prohiban todo esto de las IA que solo traen mentiras y humo
  20. #91 Respecto a los ggufs, que es el formato más popular ahora mismo, cada vez más autores los publican directamente.
    Pero aparte de TheBloke (que parece estar sabático) están huggingface.co/LoneStriker y huggingface.co/bartowski

    En reddit.com/r/localllama/ puedes encontrar mucha información, pero es un poco caótico y hay cosas para diferentes niveles.

    Yendo a algo más avanzado, cada vez hay más proyectos que intentan hacer el tuneado de LLMs más sencillo.
    Por ejemplo, está Unsloth, que puede funcionar sobre la versión gratuita de Google Colab: unsloth.ai/
    github.com/unslothai/unsloth
    Realmente el tema de tunear es más difícil seleccionar información de calidad real y ponerla en un formato compatible, que hacer el tuneo en si.

    Ahora mismo incluso existe la opción de usar LLMs en móviles mediante Termux, pero necesita bastantes gigas de RAM y van muy lentos, pero cómo curiosidad no está mal. En r/locallama verás ejemplos.
  21. #11 Pues sí, aunque la Historia nos demuestra que tomar la decisión de matar gente en la guerra nunca ha sido un problema para los humanos... y no solo en la guerra me temo.
  22. #64 eso no lo discuto.

    De ahí a atribuirle rasgos humanos como la inventiva... :roll:

    Empezando por el propio nombre. "Inteligencia artificial". Mal comienzo.

    Una herramienta más para el control de masas a traves del concepto. Una forma más de infundir miedo.
  23. #38 Por eso se suele aplicar el triple check, tanto medico como farmacia y despues la enfermera que lo aplica verifican que sea correcto.
  24. #8 no hables en futuro. YA hay jucicios por errores de IAS, www.infobae.com/estados-unidos/2024/02/19/una-aerolinea-debera-compens
    En este caso, un chatbot de una aerolinea dio una informacion incorrecta sobre como justificar un descuento y la aerolinea intento librarse con "Es que el chat es un ente independiente... que le demande a el...". 
    Vamos, esta claro que quien se frota las manos son los de seguros, sera normal que cualquier sistema de IA tenga su propio seguro de responsabilidad...  pero como se dice, si haciendolo una maquina, el empresario se ahorra 1ct, lo hara una maquina... 
  25. #3 Si es Medical Software hay que validar que dichas alucinaciones no afecten de forma negativa al tratamiento médico, y sobretodo estén en valores de órdenes de magnitud inferiores a los errores típicos de enfermeros humanos.
    Si no es así, la FDA nunca aprobará su uso.
  26. #34 Los LLM alucinan en todas sus variantes actuales sin excepción, por un motivo muy sencillo.

    Dicho súper resumidamente, un LLM es un modelo de predicción de texto. Según lo que ha "aprendido", intenta buscar el texto que sigue a lo que se le ha entrado.

    El problema de esto, es que el modelo no sabe decir "no lo sé". Va a darte la "respuesta" que el sistema piense que sea la más probable. Y si no sabe la respuesta correcta, se la inventa. Porque es técnicamente incapaz de decir "no lo sé".
  27. #16 por supuesto, para cosas criticas dudo que el factor humano vaya a desaparecer a corto plazo. En teoría, los aviones podrían volar sin piloto pero, volarías en una linea aérea sin pilotos ?
  28. #5 El que las certifique debería ser el responsable penal y económico de todos los resultados de su actividad
  29. #73 Tarda 20 días. En 18 días llega a los 36. En 19 llega a los 38. Y al día 20 sale fuera.

    Y GPT-4 lo saca bien.

    GPT-4: 1
    Humano: 0
  30. #101 Si la plancha tiene un fallo interno que el peluquero no conoce, entonces no tiene responsabilidad,
    Claro que la tiene. Es el que ha herido al cliente.
    Lo cual no elimina la responsabilidad del fabricante.
  31. #24 > Es el responsable de tener en condiciones su instrumental antes de usarlo.
    Solo hasta un punto razonable. Si la plancha tiene un fallo interno que el peluquero no conoce, entonces no tiene responsabilidad, sería el fabricante de la plancha y quizás el distribuidor.
  32. #91 www.meneame.net/story/ejecuta-tu-propio-chatgpt-local-gratis-sin-censu

    Luego te comento un poco más de lo poco que sé, que ando liado.
  33. #121 Ten en cuenta que cada llm es un mundo, hay bueno y malos.
    Hay que parecen malos pero que necesitan una configuración adecuada: www.reddit.com/r/LocalLLaMA/comments/18ljvxb/llm_prompt_format_compari


    Hay algunos que son buenos para X tareas pero un desastre para Y tareas. A veces a propósito, otras veces sin querer.

    Desconfía de los ránkings, hay mucho tramposo que entrena en los tests para que parezcan mejores.
  34. En EEUU crearon a Barrio Sésamo por la poca calidad de la educación infantil.

    Nada nuevo.
  35. Me parece que está enfocado para ser utilizado como un agente de ventas más para las farmacéuticas que otra cosa. "Tómate estas pastillas y estas otras, y estas otras que ahora te digo, puedes comenzar lo antes posible? las acciones de Pfizer están cayendo y necesitamos mejorar los datos de este cuatrimestre, gracias"
  36. #28 lo pondrá en las condiciones de contratación del seguro médico. seguro con IA y fallos posibles 40€ mes, seguro con persona: 400€
  37. Gente que dice que "a ver si te crees que los médicos aciertan siempre LOL". La próxima vez que te duela algo, sal a preguntar al primero que veas por la calle.
  38. #7 Eso es extremadamente facil, de hecho todos los dias creamos maquinas "agradecidas con el poder"; las empresas. Las empresas no son seres humanos sino maquinas con engranajes humanos cuyo unico objetivo es hacer dinero y mira como funcionan... algunas venden armas, inician guerras para aumentar sus beneficios o derrocan gobiernos.
  39. #3 pasa exactamente igual con los humanos.

    Lo que pasa es que lo que en una máquina hemos atribuído rápidamente a que se lo inventa - no sé por qué motivo - en un humano lo llamamos incompetencia, falta de capacidad, hijoputismo, saturación, falta de motivación...

    #1
  40. #23 Del peluquero.
    Es el responsable de tener en condiciones su instrumental antes de usarlo. Y es el que me ha quemado.

    El que no es responsable en ningún caso es la plancha.
  41. #13 Había un artículo por ahí de que muchos "robots" actuales (los repartidores y tal) era gente desde el tercer mundo teletrabajando.
  42. #87 no tiene nada que ver, ahora hay una plutocracia fascista (empezando por Elon) controlando todo el tema de IA para hundir a los trabajadores
  43. La AI debería de ser como mínimo obligatoria para los doctores de especializaciones/patologías muy complejas e entrecruzadas como Endocrinología, Aparato Digestivo (enfermedades inflamatorias y microbioma), Neurología, etc. Es imposible que estén al día de:
    - Los últimos estudios, sobre todo si no tiene acceso a ellos o bien hay barrera de idioma.
    - Las experiencias de los médicos y pacientes. Es increíble la de formación e información buena que se puede extraer de la comunidad, sus doctores y las vivencias de todos. Cada subforo de reddit, canal de youtube (drs. y afectados), etc. es un pozo de conocimiento.
    - Las bases de la fisiología. Al igual que un ingeniero informático no tiene pq acordarse de todas las estructuras de datos, algoritmos y patrones de diseño a pesar de dedicarse a ello, un médico tampoco, incluso si ejerce en la especialización.
    - Pruebas disponibles.

    Y mucho menos tener una visión global del estado del paciente, siempre pruebas muy específicas con resultados/diagnósticos desperdigados por centros de salud públicos y/o privados (incluso en distintos países).
  44. #4 También hay errores humanos donde se aplican mal las dosis. No es cosa solo de la IA.
  45. #17 Ya me lo estoy imaginando.....  media
  46. #96 Porque es un comodín, el asterisco en muchos softwares representa cualquier cosa.

    Y no solo está el CEO, está el CTO, CPO, COO… y así con infinidad de cargos ejecutivos.
  47. #20 ni siquiera sé como funciona la responsabilidad en otros casos...

    Si un peluquero te electrocuta al usar una plancha de pelo por un defecto en la plancha, ¿de quién es la culpa? ¿del peluquero o del fabricante?
    supongo que aquí igual. pero ni idea de como sería el caso del peluquero siquiera...
  48. #40 correcto. Pero de ahí a lo que dice la noticia hay un trecho gigante.... La IA actualmente es buena para cosas de "puertas para dentro", la interacción con humanos está lejos de ser aceptable.
  49. #14 pues yo pienso al revés... Me fio más de una IA para un diagnóstico y como segunda opinión un médico. Me parece un mejor combo y que podría funcionar y solucionar muchos problemas actuales en la sanidad.
  50. #7 los datos de entrenamiento van a ser casos reales, vendrá así de fábrica
  51. #1 No es complicado, se hace un estudio comparativo de 10.000 consultas y se ve quién tiene mayor porcentaje de acierto en el diagnóstico.
    Si la IA con su acceso instantáneo a enormes bases de datos de enfermedades más a todos los los manuales acreditados de medicina existentes; o el médico humano con su cerebro tendente a olvidarse de cosas con el tiempo, que su rendimiento se ve condicionado a fases periódicas de cansancio, estrés, etc..

    Y se compara cual tiene mayor porcentaje de acierto en el diagnóstico. Después de ahí ya que cada uno decida si prefiere ser diagnosticado por una IA o por un humano.
  52. #50 Pero es que es una máquina, el fin de diseñar una máquina es que virtualmente tenga 0 errores.

    Qué bueno, esto hace 2 años no era técnicamente posible, con fallos y todo es un gran avance.
  53. #53 Si, las homologaciones van a ser muy difíciles en países serios.
    Y con razón.

    Igualmente esto no es más que un anuncio publicitario para vender hardware.
  54. #69 Ahí tienes razón, no hay que atribuirle rasgos humanos.
    Utiliza otra lógica.

    Hay estudios que dicen que algunos son más precisos al utilizar amenazas y otras técnicas, que al contrario que los humanos no es especialmente útil la amabilidad.

    Lo del control de masas no lo veo. Creo que el mal uso del termino "inteligencia artificial" es sólo marketing. Y esto lo digo cómo lector de Asimov.
  55. #75 Desde mi perspectiva clásica sólo es vender de manera que haya muchos beneficios.

    Pero el control también es marketing para vender a corporaciones y gobiernos, que no dejan de ser los clientes más jugosos.

    También es que yo trasteo en temas de IA que se puede ejecutar en tu hardware y es de código abierto (Pero no libre del todo), con lo cual he visto también se puede usar para evitar el control (Si tienes acceso al hardware ).

    Por cierto, manda huevos que Musk sea de los que más ha liberado de un llm funcional, y que Zuckerberg apueste (de momento) porque sean de código abierto.
  56. #15 pero son conceptos diferentes.

    Un programa basado en IA que ayude a alguien con conocimientos es lógico y común, incluso antes de la IA.

    Los ingenieros ya no hacen los cálculos a mano sino con programas, y los conductores usan GPS.

    Pero algo muy diferente es un programa que haga de ingeniero o un autopilot.

    Un programa que aconseje a un sanitario que medicina dar, y que el sanitario a su criterio la use, es diferente a un programa que te prescriba medicinas.
  57. Cuando una IA de estas la cague gravemente, ¿Quien va a ser el responsable?

    Para aclarar estas cosas si que es urgente redactar nuevas leyes
  58. #27 Así debería ser.

    Pero no las tengo todas conmigo. Precisamente gran parte del negocio pasa por eludir esa responsabilidad
  59. #30 Estamos hablando de muchos países donde si no tienes un contrato de trabajo no tienes Sanidad, 9€ la hora es un chollo.
  60. #56 bueno, eso es así ya en muchas empresas, con plantillas de respuesta automática total o parcial

    Por ejemplo en contratación por teléfono casi siempre es una máquina la que te lee los términos del contrato para grabarte el sí acepto
  61. El sector sanitario necesita de una fuerte modernizacion, seguimos atendiendo como en el siglo XIX.

    Encuentro que las enfermedades mas frecuentes/leves, se podrian estandarizar e incluso tratar sin necesidad de recurrir a un medico. Dejando pues, la consulta a medicos para casos mas excepcionales/importantes.

    No tiene sentido que tenga que ocupar tiempo de un medico para una otitis cuando todos sabemos que el 90% de los casos se va a resumir en recetarme unos antibioticos para el oido y reposo.

    La IA podria ser una solucion para esto. Pero fuera de la IA, tambien se podria usar personal semi-cualificado (ej: ciclo formativo) que siguiera un diagrama de flujo estandarizado en el ordenador. El operario teclea los sintomas, sigue un cuestionario y aplica la solucion estandarizada. Si no hay solucion estandarizada porque es algo mas atipico, entonces ahi se escalaria a un medico.

    Se haria un uso mucho mas eficiente del tiempo de los medicos, lo que permitiria reducir las listas de espera considerablemente.
  62. #70 Es otra opción, respetable ;)
  63. #5 O para asesinar a gente en guerras.
  64. Cobra mas que un medico español a la hora....
  65. #21 si y no. Por qué certificar no es magia, no es decir esto funciona con la mano en el corazón o que el se haga responsable.

    Se tiene que reunir mucha gente que sabe del tema y crear un procedimiento para demostrar que eso hace lo que dice con una probabilidad de error aceptable (y como actuar en esos casos).

    El certificador comprueba que todo funciona como dice la documentación y que está cumple los standares
  66. #14 Ya. Pero si eso no se reafirma con el voto, te atenderá quien decidan que te atienda.

    Prostatron powered by ChatGPT.
  67. #7 Transacciones automáticas a suiza
  68. #41 ¿Qué son los C*Os?
  69. #57 ni tiene intencionalidad ni inventiva.

    Y los humanos también tienen fallos de cálculo. Por supuesto mucho antes que las IAs.
  70. #14 En oncología y cardiología las IAs están dando muy buenos resultados, eso si, como copiloto. Creo que estamos muy lejos aún de dejar un hospital en manos de la IA :-P

    Vaya mundo de inútiles nos quedará si todo se reemplaza con IA :-P
  71. #11 Lo bueno es que las víctimas colaterales se reducirían enormemente. Y lo de matar a personas desarmadas con una bandera blanca quizás se podría evitar. Es más, le quitaríamos la parte divertida a matar y quizás se matase menos.
  72. #77 un rato que te aburras y quieras hacer una buena obra, podrías indicarme por dónde empezar con las IAs que se pueden ejecutar en hardware propio. Es algo que me llama la atención, pero no me atrevo a curiosearlo, pues me parece demasiado espeso el comienzo.

    Gracias de antebrazo.
  73. #85 Con una inteligencia artificial la guerra se podría hacer de forma más rápida y eficaz. Matando al dirigente enemigo.
    Difícilmente alguien decidiría atacar a otro país si sus probabilidades de muerte inmediata fuesen enormes.
  74. #62 Técnicamente puede evaluar la probabilidad de una oración a posteriori. Así que pones a un LLM responder, y a otro indicando si la respuesta es plausible. Si no lo es, respondes "no sé".

    También puede hacerse en el fine tuning y de hecho se hace.
  75. #48 ¿CEOs?
  76. #94 Me imagino, pero ¿por qué censurarlo con un asterisco?
  77. #1 ChatGPT lleva nada y menos. Parece que no sois capaces de ver a largo plazo...
  78. #86 Si quisiéramos evaluar las cosas con tanto detalle, también analizaríamos si conviene reducir la duración de las guardias. No todo se optimiza en el capitalismo.
  79. #96 Ni idea, los traumas de cada uno habrá que preguntárselos a una IA :shit:
  80. #100 ¿Perseveras en el error aún después de haber sido corregido? También eso lo haces peor que GPT-4. Vas a ser fácil de sustituir.
  81. #102 Si ha hecho un uso correcto de la plancha, no tiene responsabilidad.
  82. #20 un programador novato que firme un certificado por 200€ y al que le daremos un puesto tipo "coordinador de garantías" o algo así.
  83. #119 thx, man.

    Me pondré con ello.
  84. #31 4. ¿Quiere que le atienda un enfermero virtual supervisado por un enfermero real que será el responsable último? 50 dólares la hora

    Esa es la solución: toda IA tiene que tener un humano que se responsabilice de ella: menor carga de trabajo para los humanos, menos humanos necesarios para trabajar (reducción de jornada) y menos errores debidos al cansancio, falta de conocimientos y actualización, etc.
  85. #8 justo uno de los proyectos que tengo en mi portfolio es un sistema para verificar y aportar recomendaciones a gente q escribe contratos, en nuestro caso, siempre hay una persona que valora y acepta los cambios. Hay mucho camino por recorrer.
  86. #19 #18 depende de la comunidad autónoma, pero que yo sepa en España nadie está por debajo de 9 €.

    lo que yo conozco de guardias son a 12€ las localizadas, a 24€ las presenciales
  87. #24 en ese caso, el hospital o servicio de salud que lo use será el responsable. pero vaya, es mi extrapolación usando sentido común...
  88. #12 Para los humanos, siempre ha sido un problema la primera vez. Con los drones podemos saltarnos esas "reticencias morales".
  89. #34 con retrieval augmented generation todavía alucinan.
  90. Siempre van a por los que ya son relativamente baratos. Estoy por crear una IA para reemplazar a los C*Os y ahorrar a los inversores millones de ¥€$

    ...y, sí. Es una referencia a Ghost in the Shell: SAC.
  91. Por lo que veo solamente hace un seguimiento, y la demo deja bastante que desear, pudiendo haber utilizado a una persona mas real, han utilizado un muñeco virtual en el que sus expresiones eran bastante malas, si nvidia quiere impresionar al mundo con algo, con este video no lo han conseguido.

    y como siempre, el paciente siempre puede mentir, me he tomado las pastillas, si, todos los días a la hora pautada, mi mujer, que es auxiliar se ha encontrado pacientes que no se las toman, al encontrarse un puñado de pastillas en el cajón de la mesilla de noche

    Me parece muy buena idea, como un control a mayores, para mejorar la prestación del servicio, pero por ahora no veo que puedan sustituir a nadie.
  92. #14 Mira eso va a ser como el paradigma de los cohetes reutilizados.

    Hace 5 años ni loco se subiría un astronauta a un cohete reutilizado, hoy ni loco se sube un astronauta a un cohete que no haya sido probado antes.
  93. #8 la culpa sera del paciente. Ya meteran en el contrato del servicio en letra bien pequeña que va a ser atendido por una IA y que puede fallar y que es responsabilidad del cliente hablar con médico capacitado....

    Eso sí, ya se habrán "ahorrado" millones de euros/dólares en enfermeras/médicos y les dara igual.
  94. #4 pues hace muchos años (ahora no sé) la información de tráfico la daba un mago de Oz.

    Tu hablabas, un operador te entendía y te respondía con una grabación. La mitad de las veces tu preguntabas por el tráfico en una carretera y te respondía con que había un atasco en otra a 100km porque era lo único que tenía registrado.

    El usuario no me daba la murga al operador porque pensaba que hablaba con una máquina y el operador podía atender muchas más llamadas.

    No descartes que una ia de Oz sea una buena idea. Al menos para el proveedor del servicio.
  95. #82 Que hagan guerras de robots solo y que nos dejen en paz los viejos con sus guerras.
  96. #54 proyecto < programa < portfolio  media
  97. #98 Yo no lo veo tanto como seguir criterios de eficiencia capitalista, sino más bien criterios meramente de salud, que es el que debería imperar en estos casos.
    Como digo, una vez que sepamos los porcentajes de acierto medio de cada tipo, ya cada uno que decida la metodología de diagnóstico que crea que le pueda convenir más para su salud.
  98. #45 en 2025 se estará a otra cosa. Tal vez ni siquiera IA generativa. BERT tuvo su momento y pasó, lo mismo pasará con los modelos generativos actuales.
  99. Curioso. Precisamente yo creo que de los pocos trabajos que están a salvo de ser sustituidos por una IA están aquellos donde el trato directo con la persona es importante como enfermer@s o maestr@s infantiles.
  100. #18 Un médico con el MIR cobra bastante más que eso.

    No sé cómo pagarán las horas de guardia de un residente de primer año, pero cuando mi mujer hizo el MIR también cobraba de media más que 9$ la hora.
«12
comentarios cerrados

menéame