En el vídeo vemos a una paciente en su casa comenzando una videollamada con una especie de enfermera virtual impulsada por IA llamada Rachel. La “agente de IA” le indica verbalmente a la paciente cómo tomar penicilina. Unos segundos después, Rachel le dice que le transmitirá toda la información que han compartido al médico humano real de la mujer.
|
etiquetas: nvidia , ia , enfermero , médico , sanitario
Pero aparte de TheBloke (que parece estar sabático) están huggingface.co/LoneStriker y huggingface.co/bartowski
En reddit.com/r/localllama/ puedes encontrar mucha información, pero es un poco caótico y hay cosas para diferentes niveles.
Yendo a algo más avanzado, cada vez hay más proyectos que intentan hacer el tuneado de LLMs más sencillo.
Por ejemplo, está… » ver todo el comentario
Me pondré con ello.
Hay que parecen malos pero que necesitan una configuración adecuada: www.reddit.com/r/LocalLLaMA/comments/18ljvxb/llm_prompt_format_compari
Hay algunos que son buenos para X tareas pero un desastre para Y tareas. A veces a propósito, otras veces sin querer.
Desconfía de los ránkings, hay mucho tramposo que entrena en los tests para que parezcan mejores.
En este caso, un chatbot de una aerolinea dio una informacion incorrecta sobre como justificar un descuento y la aerolinea intento librarse con "Es que el chat es un ente independiente... que le demande a el...".
Vamos, esta claro que quien se frota las manos son los de seguros, sera normal que cualquier sistema de IA tenga su propio seguro de responsabilidad... pero como se dice, si haciendolo una maquina, el empresario se ahorra 1ct, lo hara una maquina...
Luego te comento un poco más de lo poco que sé, que ando liado.
Solo hasta un punto razonable. Si la plancha tiene un fallo interno que el peluquero no conoce, entonces no tiene responsabilidad, sería el fabricante de la plancha y quizás el distribuidor.
Claro que la tiene. Es el que ha herido al cliente.
Lo cual no elimina la responsabilidad del fabricante.
- Los últimos estudios, sobre todo si no tiene acceso a ellos o bien hay barrera de idioma.
- Las experiencias de los médicos y pacientes. Es increíble la de formación e información buena que se puede extraer de la comunidad, sus doctores y… » ver todo el comentario
Y no solo está el CEO, está el CTO, CPO, COO… y así con infinidad de cargos ejecutivos.
Esa es la solución: toda IA tiene que tener un humano que se responsabilice de ella: menor carga de trabajo para los humanos, menos humanos necesarios para trabajar (reducción de jornada) y menos errores debidos al cansancio, falta de conocimientos y actualización, etc.
Como digo, una vez que sepamos los porcentajes de acierto medio de cada tipo, ya cada uno que decida la metodología de diagnóstico que crea que le pueda convenir más para su salud.
¿Cuál va a ser el certificado de la IA? ¿O simplemente hay que confiar ciegamente en que la información que proporciona tiene algo de fundamento y ya está?