En el vídeo vemos a una paciente en su casa comenzando una videollamada con una especie de enfermera virtual impulsada por IA llamada Rachel. La “agente de IA” le indica verbalmente a la paciente cómo tomar penicilina. Unos segundos después, Rachel le dice que le transmitirá toda la información que han compartido al médico humano real de la mujer.
|
etiquetas: nvidia , ia , enfermero , médico , sanitario
O para conducir, o para impartir justicia, o para diseñar casas seguras, o para defender a un cliente humano contra una resolución tomada por una IA, o para...
Si nos paramos a pensar, una vez certificada una IA para cualquier tarea, se puede fabricar en serie y acabar con conductores, abogados jueces, médicos, pilotos... etc. Incluso podemos certificar una IA para que emita certificaciones...
MENU
--------
1. ¿Quiere que le atienda un enfermero real y que se haga responsable de los errores? 300 dólares la hora
2. ¿Quiere que le atienda un enfermero virtual y que no se haga responsable de los errores? 9 dólares la hora
3. Muérase
Así que siempre cabe esa posibilidad.
Si esa IA mata a alguien mientras lo "cura" no solo habrá que soltar pasta, sino que habría que buscar a alguien a quien meter en la cárcel.
El tema legal con las IAs va a dar para mucho.
Como reemplazo, pues otro regalito de mierda del capitalismo.
¿Tu respondes igual a un examen teniendo los apuntes delante que sin tenerlos?
Pero aparte de TheBloke (que parece estar sabático) están huggingface.co/LoneStriker y huggingface.co/bartowski
En reddit.com/r/localllama/ puedes encontrar mucha información, pero es un poco caótico y hay cosas para diferentes niveles.
Yendo a algo más avanzado, cada vez hay más proyectos que intentan hacer el tuneado de LLMs más sencillo.
Por ejemplo, está Unsloth, que puede funcionar sobre la versión gratuita de Google Colab: unsloth.ai/
github.com/unslothai/unsloth
Realmente el tema de tunear es más difícil seleccionar información de calidad real y ponerla en un formato compatible, que hacer el tuneo en si.
Ahora mismo incluso existe la opción de usar LLMs en móviles mediante Termux, pero necesita bastantes gigas de RAM y van muy lentos, pero cómo curiosidad no está mal. En r/locallama verás ejemplos.
De ahí a atribuirle rasgos humanos como la inventiva...
Empezando por el propio nombre. "Inteligencia artificial". Mal comienzo.
Una herramienta más para el control de masas a traves del concepto. Una forma más de infundir miedo.
En este caso, un chatbot de una aerolinea dio una informacion incorrecta sobre como justificar un descuento y la aerolinea intento librarse con "Es que el chat es un ente independiente... que le demande a el...".
Vamos, esta claro que quien se frota las manos son los de seguros, sera normal que cualquier sistema de IA tenga su propio seguro de responsabilidad... pero como se dice, si haciendolo una maquina, el empresario se ahorra 1ct, lo hara una maquina...
Si no es así, la FDA nunca aprobará su uso.
Dicho súper resumidamente, un LLM es un modelo de predicción de texto. Según lo que ha "aprendido", intenta buscar el texto que sigue a lo que se le ha entrado.
El problema de esto, es que el modelo no sabe decir "no lo sé". Va a darte la "respuesta" que el sistema piense que sea la más probable. Y si no sabe la respuesta correcta, se la inventa. Porque es técnicamente incapaz de decir "no lo sé".
Y GPT-4 lo saca bien.
GPT-4: 1
Humano: 0
Claro que la tiene. Es el que ha herido al cliente.
Lo cual no elimina la responsabilidad del fabricante.
Solo hasta un punto razonable. Si la plancha tiene un fallo interno que el peluquero no conoce, entonces no tiene responsabilidad, sería el fabricante de la plancha y quizás el distribuidor.
Luego te comento un poco más de lo poco que sé, que ando liado.
Hay que parecen malos pero que necesitan una configuración adecuada: www.reddit.com/r/LocalLLaMA/comments/18ljvxb/llm_prompt_format_compari
Hay algunos que son buenos para X tareas pero un desastre para Y tareas. A veces a propósito, otras veces sin querer.
Desconfía de los ránkings, hay mucho tramposo que entrena en los tests para que parezcan mejores.
Nada nuevo.
Lo que pasa es que lo que en una máquina hemos atribuído rápidamente a que se lo inventa - no sé por qué motivo - en un humano lo llamamos incompetencia, falta de capacidad, hijoputismo, saturación, falta de motivación...
#1
Es el responsable de tener en condiciones su instrumental antes de usarlo. Y es el que me ha quemado.
El que no es responsable en ningún caso es la plancha.
- Los últimos estudios, sobre todo si no tiene acceso a ellos o bien hay barrera de idioma.
- Las experiencias de los médicos y pacientes. Es increíble la de formación e información buena que se puede extraer de la comunidad, sus doctores y las vivencias de todos. Cada subforo de reddit, canal de youtube (drs. y afectados), etc. es un pozo de conocimiento.
- Las bases de la fisiología. Al igual que un ingeniero informático no tiene pq acordarse de todas las estructuras de datos, algoritmos y patrones de diseño a pesar de dedicarse a ello, un médico tampoco, incluso si ejerce en la especialización.
- Pruebas disponibles.
Y mucho menos tener una visión global del estado del paciente, siempre pruebas muy específicas con resultados/diagnósticos desperdigados por centros de salud públicos y/o privados (incluso en distintos países).
Y no solo está el CEO, está el CTO, CPO, COO… y así con infinidad de cargos ejecutivos.
Si un peluquero te electrocuta al usar una plancha de pelo por un defecto en la plancha, ¿de quién es la culpa? ¿del peluquero o del fabricante?
supongo que aquí igual. pero ni idea de como sería el caso del peluquero siquiera...
Si la IA con su acceso instantáneo a enormes bases de datos de enfermedades más a todos los los manuales acreditados de medicina existentes; o el médico humano con su cerebro tendente a olvidarse de cosas con el tiempo, que su rendimiento se ve condicionado a fases periódicas de cansancio, estrés, etc..
Y se compara cual tiene mayor porcentaje de acierto en el diagnóstico. Después de ahí ya que cada uno decida si prefiere ser diagnosticado por una IA o por un humano.
Qué bueno, esto hace 2 años no era técnicamente posible, con fallos y todo es un gran avance.
Y con razón.
Igualmente esto no es más que un anuncio publicitario para vender hardware.
Utiliza otra lógica.
Hay estudios que dicen que algunos son más precisos al utilizar amenazas y otras técnicas, que al contrario que los humanos no es especialmente útil la amabilidad.
Lo del control de masas no lo veo. Creo que el mal uso del termino "inteligencia artificial" es sólo marketing. Y esto lo digo cómo lector de Asimov.
Pero el control también es marketing para vender a corporaciones y gobiernos, que no dejan de ser los clientes más jugosos.
También es que yo trasteo en temas de IA que se puede ejecutar en tu hardware y es de código abierto (Pero no libre del todo), con lo cual he visto también se puede usar para evitar el control (Si tienes acceso al hardware ).
Por cierto, manda huevos que Musk sea de los que más ha liberado de un llm funcional, y que Zuckerberg apueste (de momento) porque sean de código abierto.
Un programa basado en IA que ayude a alguien con conocimientos es lógico y común, incluso antes de la IA.
Los ingenieros ya no hacen los cálculos a mano sino con programas, y los conductores usan GPS.
Pero algo muy diferente es un programa que haga de ingeniero o un autopilot.
Un programa que aconseje a un sanitario que medicina dar, y que el sanitario a su criterio la use, es diferente a un programa que te prescriba medicinas.
Para aclarar estas cosas si que es urgente redactar nuevas leyes
Pero no las tengo todas conmigo. Precisamente gran parte del negocio pasa por eludir esa responsabilidad
Por ejemplo en contratación por teléfono casi siempre es una máquina la que te lee los términos del contrato para grabarte el sí acepto
Encuentro que las enfermedades mas frecuentes/leves, se podrian estandarizar e incluso tratar sin necesidad de recurrir a un medico. Dejando pues, la consulta a medicos para casos mas excepcionales/importantes.
No tiene sentido que tenga que ocupar tiempo de un medico para una otitis cuando todos sabemos que el 90% de los casos se va a resumir en recetarme unos antibioticos para el oido y reposo.
La IA podria ser una solucion para esto. Pero fuera de la IA, tambien se podria usar personal semi-cualificado (ej: ciclo formativo) que siguiera un diagrama de flujo estandarizado en el ordenador. El operario teclea los sintomas, sigue un cuestionario y aplica la solucion estandarizada. Si no hay solucion estandarizada porque es algo mas atipico, entonces ahi se escalaria a un medico.
Se haria un uso mucho mas eficiente del tiempo de los medicos, lo que permitiria reducir las listas de espera considerablemente.
Se tiene que reunir mucha gente que sabe del tema y crear un procedimiento para demostrar que eso hace lo que dice con una probabilidad de error aceptable (y como actuar en esos casos).
El certificador comprueba que todo funciona como dice la documentación y que está cumple los standares
Prostatron powered by ChatGPT.
Y los humanos también tienen fallos de cálculo. Por supuesto mucho antes que las IAs.
Vaya mundo de inútiles nos quedará si todo se reemplaza con IA
Gracias de antebrazo.
Difícilmente alguien decidiría atacar a otro país si sus probabilidades de muerte inmediata fuesen enormes.
También puede hacerse en el fine tuning y de hecho se hace.
Me pondré con ello.
Esa es la solución: toda IA tiene que tener un humano que se responsabilice de ella: menor carga de trabajo para los humanos, menos humanos necesarios para trabajar (reducción de jornada) y menos errores debidos al cansancio, falta de conocimientos y actualización, etc.
lo que yo conozco de guardias son a 12€ las localizadas, a 24€ las presenciales
...y, sí. Es una referencia a Ghost in the Shell: SAC.
y como siempre, el paciente siempre puede mentir, me he tomado las pastillas, si, todos los días a la hora pautada, mi mujer, que es auxiliar se ha encontrado pacientes que no se las toman, al encontrarse un puñado de pastillas en el cajón de la mesilla de noche
Me parece muy buena idea, como un control a mayores, para mejorar la prestación del servicio, pero por ahora no veo que puedan sustituir a nadie.
Hace 5 años ni loco se subiría un astronauta a un cohete reutilizado, hoy ni loco se sube un astronauta a un cohete que no haya sido probado antes.
Eso sí, ya se habrán "ahorrado" millones de euros/dólares en enfermeras/médicos y les dara igual.
Tu hablabas, un operador te entendía y te respondía con una grabación. La mitad de las veces tu preguntabas por el tráfico en una carretera y te respondía con que había un atasco en otra a 100km porque era lo único que tenía registrado.
El usuario no me daba la murga al operador porque pensaba que hablaba con una máquina y el operador podía atender muchas más llamadas.
No descartes que una ia de Oz sea una buena idea. Al menos para el proveedor del servicio.
Como digo, una vez que sepamos los porcentajes de acierto medio de cada tipo, ya cada uno que decida la metodología de diagnóstico que crea que le pueda convenir más para su salud.
No sé cómo pagarán las horas de guardia de un residente de primer año, pero cuando mi mujer hizo el MIR también cobraba de media más que 9$ la hora.