En el vídeo vemos a una paciente en su casa comenzando una videollamada con una especie de enfermera virtual impulsada por IA llamada Rachel. La “agente de IA” le indica verbalmente a la paciente cómo tomar penicilina. Unos segundos después, Rachel le dice que le transmitirá toda la información que han compartido al médico humano real de la mujer.
|
etiquetas: nvidia , ia , enfermero , médico , sanitario
Así que siempre cabe esa posibilidad.
Tu hablabas, un operador te entendía y te respondía con una grabación. La mitad de las veces tu preguntabas por el tráfico en una carretera y te respondía con que había un atasco en otra a 100km porque era lo único que tenía registrado.
El usuario no me daba la murga al operador porque pensaba que hablaba con una máquina y el operador podía atender muchas más llamadas.
No descartes que una ia de Oz sea una buena idea. Al menos para el proveedor del servicio.
Por ejemplo en contratación por teléfono casi siempre es una máquina la que te lee los términos del contrato para grabarte el sí acepto
Lo que pasa es que lo que en una máquina hemos atribuído rápidamente a que se lo inventa - no sé por qué motivo - en un humano lo llamamos incompetencia, falta de capacidad, hijoputismo, saturación, falta de motivación...
#1
Y los humanos también tienen fallos de cálculo. Por supuesto mucho antes que las IAs.
Qué bueno, esto hace 2 años no era técnicamente posible, con fallos y todo es un gran avance.
De ahí a atribuirle rasgos humanos como la inventiva...
Empezando por el propio nombre. "Inteligencia artificial". Mal comienzo.
Una herramienta más para el control de masas a traves del concepto. Una forma más de infundir miedo.
Utiliza otra lógica.
Hay estudios que dicen que algunos son más precisos al utilizar amenazas y otras técnicas, que al contrario que los humanos no es especialmente útil la amabilidad.
Lo del control de masas no lo veo. Creo que el mal uso del termino "inteligencia artificial" es sólo marketing. Y esto lo digo cómo lector de Asimov.
Pero el control también es marketing para vender a corporaciones y gobiernos, que no dejan de ser los clientes más jugosos.
También es que yo trasteo en temas de IA que se puede ejecutar en tu hardware y es de código abierto (Pero no libre del todo), con lo cual he visto también se puede usar para evitar el control (Si tienes acceso al hardware ).
Por cierto, manda huevos que Musk sea de los que más ha liberado de un llm funcional, y que Zuckerberg apueste (de momento) porque sean de código abierto.
Gracias de antebrazo.
Luego te comento un poco más de lo poco que sé, que ando liado.
Pero aparte de TheBloke (que parece estar sabático) están huggingface.co/LoneStriker y huggingface.co/bartowski
En reddit.com/r/localllama/ puedes encontrar mucha información, pero es un poco caótico y hay cosas para diferentes niveles.
Yendo a algo más avanzado, cada vez hay más proyectos que intentan hacer el tuneado de LLMs más sencillo.
Por ejemplo, está… » ver todo el comentario
El problema es que estamos acostumbrados a los errores humanos y son "comprensibles", pero la IA al ser una caja negra, no sabemos cómo aprende y por qué comete ciertos errores. De la misma forma que ayer había otro artículo en el que no se comprendía totalmente como podía aprender ciertas cosas, por ejemplo extrapolar lo aprendido a otros idiomas, me parece normal que saque conclusiones inesperadas...
Si no es así, la FDA nunca aprobará su uso.
Y con razón.
Igualmente esto no es más que un anuncio publicitario para vender hardware.
¿Tu respondes igual a un examen teniendo los apuntes delante que sin tenerlos?
Espérate a 2025 y veamos si siguen alucinando.
Dicho súper resumidamente, un LLM es un modelo de predicción de texto. Según lo que ha "aprendido", intenta buscar el texto que sigue a lo que se le ha entrado.
El problema de esto, es que el modelo no sabe decir "no lo sé". Va a darte la "respuesta" que el sistema piense que sea la más probable. Y si no sabe la respuesta correcta, se la inventa. Porque es técnicamente incapaz de decir "no lo sé".
Podéis probar por ejemplo a preguntarle a ChatGPT esto: "Si una rana salta cada día 3 metros y cae 1 metro, cuánto tardará en salir de un agujero de 40 metros?"
Te va a decir 20 días, pero tú sabes que tarda 19 días. Se lo corriges y te va a aceptar que estaba equivocado, pero es que ni la lógica ha aplicado, simplemente ha predecido texto, y lo ha hecho mal.
Y GPT-4 lo saca bien.
GPT-4: 1
Humano: 0
También puede hacerse en el fine tuning y de hecho se hace.
Si la IA con su acceso instantáneo a enormes bases de datos de enfermedades más a todos los los manuales acreditados de medicina existentes; o el médico humano con su cerebro tendente a olvidarse de cosas con el tiempo, que su rendimiento se ve condicionado a fases periódicas de cansancio, estrés, etc..
Y se compara cual tiene mayor porcentaje de acierto en el diagnóstico. Después de ahí ya que cada uno decida si prefiere ser diagnosticado por una IA o por un humano.
Como digo, una vez que sepamos los porcentajes de acierto medio de cada tipo, ya cada uno que decida la metodología de diagnóstico que crea que le pueda convenir más para su salud.
O para conducir, o para impartir justicia, o para diseñar casas seguras, o para defender a un cliente humano contra una resolución tomada por una IA, o para...
Si nos paramos a pensar, una vez certificada una IA para cualquier tarea, se puede fabricar en serie y acabar con conductores, abogados jueces, médicos, pilotos... etc. Incluso podemos certificar una IA para que emita certificaciones...
Difícilmente alguien decidiría atacar a otro país si sus probabilidades de muerte inmediata fuesen enormes.
Se tiene que reunir mucha gente que sabe del tema y crear un procedimiento para demostrar que eso hace lo que dice con una probabilidad de error aceptable (y como actuar en esos casos).
El certificador comprueba que todo funciona como dice la documentación y que está cumple los standares
Si esa IA mata a alguien mientras lo "cura" no solo habrá que soltar pasta, sino que habría que buscar a alguien a quien meter en la cárcel.
El tema legal con las IAs va a dar para mucho.
Un programa basado en IA que ayude a alguien con conocimientos es lógico y común, incluso antes de la IA.
Los ingenieros ya no hacen los cálculos a mano sino con programas, y los conductores usan GPS.
Pero algo muy diferente es un programa que haga de ingeniero o un autopilot.
Un programa que aconseje a un sanitario que medicina dar, y que el sanitario a su criterio la use, es diferente a un programa que te prescriba medicinas.
Eso sí, ya se habrán "ahorrado" millones de euros/dólares en enfermeras/médicos y les dara igual.
En este caso, un chatbot de una aerolinea dio una informacion incorrecta sobre como justificar un descuento y la aerolinea intento librarse con "Es que el chat es un ente independiente... que le demande a el...".
Vamos, esta claro que quien se frota las manos son los de seguros, sera normal que cualquier sistema de IA tenga su propio seguro de responsabilidad... pero como se dice, si haciendolo una maquina, el empresario se ahorra 1ct, lo hara una maquina...
MENU
--------
1. ¿Quiere que le atienda un enfermero real y que se haga responsable de los errores? 300 dólares la hora
2. ¿Quiere que le atienda un enfermero virtual y que no se haga responsable de los errores? 9 dólares la hora
3. Muérase
Esa es la solución: toda IA tiene que tener un humano que se responsabilice de ella: menor carga de trabajo para los humanos, menos humanos necesarios para trabajar (reducción de jornada) y menos errores debidos al cansancio, falta de conocimientos y actualización, etc.
Hace 5 años ni loco se subiría un astronauta a un cohete reutilizado, hoy ni loco se sube un astronauta a un cohete que no haya sido probado antes.
Prostatron powered by ChatGPT.
Vaya mundo de inútiles nos quedará si todo se reemplaza con IA
Como reemplazo, pues otro regalito de mierda del capitalismo.
La realidad es que abarata y hace accesible necesidades básicas al tiempo que permite que se creen oportunidades para nuevas profesiones en actividades nuevas o que antes eran un lujo.
Es muy simple, el día que no sea necesario trabajar será un gran día.
Nada nuevo.
Encuentro que las enfermedades mas frecuentes/leves, se podrian estandarizar e incluso tratar sin necesidad de recurrir a un medico. Dejando pues, la consulta a medicos para casos mas excepcionales/importantes.
No tiene sentido que tenga que ocupar tiempo de un medico para una otitis cuando todos sabemos que el 90% de los casos se va a resumir en recetarme unos antibioticos para el oido y… » ver todo el comentario
Para aclarar estas cosas si que es urgente redactar nuevas leyes
Si un peluquero te electrocuta al usar una plancha de pelo por un defecto en la plancha, ¿de quién es la culpa? ¿del peluquero o del fabricante?
supongo que aquí igual. pero ni idea de como sería el caso del peluquero siquiera...
Es el responsable de tener en condiciones su instrumental antes de usarlo. Y es el que me ha quemado.
El que no es responsable en ningún caso es la plancha.
Pero no las tengo todas conmigo. Precisamente gran parte del negocio pasa por eludir esa responsabilidad
Solo hasta un punto razonable. Si la plancha tiene un fallo interno que el peluquero no conoce, entonces no tiene responsabilidad, sería el fabricante de la plancha y quizás el distribuidor.
No sé cómo pagarán las horas de guardia de un residente de primer año, pero cuando mi mujer hizo el MIR también cobraba de media más que 9$ la hora.
lo que yo conozco de guardias son a 12€ las localizadas, a 24€ las presenciales
y como siempre, el paciente siempre puede mentir, me he tomado las pastillas, si, todos los días a la hora pautada, mi mujer, que es auxiliar se ha encontrado pacientes que no se las toman, al encontrarse un puñado de pastillas en el cajón de la mesilla de noche
Me parece muy buena idea, como un control a mayores, para mejorar la prestación del servicio, pero por ahora no veo que puedan sustituir a nadie.
...y, sí. Es una referencia a Ghost in the Shell: SAC.
Y no solo está el CEO, está el CTO, CPO, COO… y así con infinidad de cargos ejecutivos.