edición general
316 meneos
2310 clics
Nvidia quiere revolucionar los escaneos médicos gracias a su nueva IA de reconocimiento de órganos por un dólar

Nvidia quiere revolucionar los escaneos médicos gracias a su nueva IA de reconocimiento de órganos por un dólar

GE Healthcare está informando que en los próximos días estarán actualizando más de 500.000 de sus dispositivos médicos para incorporar la plataforma de IA de Nvidia, que van desde escáneres, MRI, CTs y más. Con esto será posible tener mejores resultados clínicos en la detección de lesiones hepáticas, renales e incluso cerebrales, ya que la velocidad de la información permitirá tener un diagnóstico casi inmediato.

| etiquetas: nvidia , escáneres , ia , reconocimientos médicos , diagnóstico
  1. El titular es confuso, lo que costará un dólar es cada vez que de use el aparato, no el aparato en sí.
  2. Los grandes costes de las máquinas para hacer MRI, CT, etc, son:
    - amortización (dependiendo del tipo, cuestan de 50.000 a 400.000€)
    - mantenimiento (son contratos anuales de algunos miles de euros)
    - su consumo energético (depende mucho del modelo y del tipo de escáner que se realice, pero anda en el orden de decenas de kW).

    Como dato adicional importante, en cada paciente se emplea del orden de media hora (sólo con el consumo de electricidad de las máquinas se supera ya 1€ por paciente). En cuanto al mantenimiento, si se atienden unos 20 pacientes al día, tirando por lo alto ya van unos 10.000 pacientes al año (tocan del orden de otro euro por barba de mantenimiento). Si la máquina la vas a usar pongamos 20 años, en media es probable que toquen a otro euro por paciente de amortización. Así que el orden de magnitud del coste no baja de 3€ por prueba sólo por tener y usar la máquina (sin contar ni las instalaciones y servicios donde se ubica, ni coste del personal cualificado, etc - todo el conjunto al final es lo que hace que cueste cientos de euros como se indica en el artículo).

    Por otro lado, a ese ritmo de pacientes me da la impresión que el postproceso de los datos para obtener imágenes no parece ni de lejos determinante ni en el coste ni en la capacidad, como para que una reducción drástica del tiempo de cálculo abaratase tanto el coste de cada prueba (el ritmo de pacientes tampoco parece un cuello de botella, teniendo además las noches sin afluencia para seguir postprocesando).

    Vamos, que está bien optimizar esa tarea cuando la tendencia va por ahí, pero venderlo como que el coste de cada prueba va a bajar del dólar en el fondo es publicidad de Nvidia (que posiblemente en EE.UU. intentará colar a los hospitales privados las tarjetas "científicas" a precio de oro en lugar de las de consumo para videojuegos)
  3. #2 En España, gracias a Amancio Ortega, está tó pagao.
  4. #2 Gracias, éste es el tipo de comentarios que enganchan a MNM.
  5. Xataka como siempre trabajándose bien sus artículos.
    Menciona 50.000 GB / día de datos por hospital. Viendo otras fuentes en inglés (por ejemplo esta1), dan datos más razonables.
    An average hospital generates 50 petabytes of data annually, GE said, but only 3 percent of that data is analysed, tagged, or made actionable.

    1 www.zdnet.com/article/ge-healthcare-turns-to-nvidia-for-ai-boost-in-me
  6. #2 El titular es claramente sensacionalista. Dicho esto, si a los costes que indicas se suma el salario del médico que evalúa los resultados, probablemente suban bastante. Eliminar la necesidad de que alguien lo revise y te diga que todo está bien ahorraría dinero comparándolo con el euro que cuesta que lo haga este sistema.

    Si no está todo bien tendrás que visitar al médico igual que antes, para que te ponga un tratamiento, pero para los pacientes sanos puede suponer un ahorro de costes importante. Y de tiempo: de que el médico te de cita para dentro de seis meses a tener los resultados en el momento.

    Todo esto aplica si la IA del invento este es capaz de dar un diagnóstico, claro. Leyendo el artículo no me queda claro...
  7. Xataka=Patrocinado por...
  8. #5 #5 También se ve que no conocen nada más allá de los terabytes...
  9. Qué poco rigor, artículo que en vez de despejar dudas te crea muchas más. Acabas más desinformado que informado.
  10. y esta, señores, es la razon por la que nvidia aparecera flotando boca abajo en un rio...
  11. tu espera que la IA no se invente cosas que realmente no están ahí y te operen de algo que no tienes...
  12. #11 Yo también creo que no está bien calculado.
    Pero lo tuyo... Tiene tela.!
    Entre 500mil y 3Millones hay la friolera de DOS millones y medio de € de diferencia y entre " decenas de miles " hay por lo menos 12.000.
    El consumo, es el chocolate del loro. Eso sí.
    La obsolescencia - obligada - es casi segura antes, mucho antes de 20 yeares.
    En lo que estamos de acuerdo es en que es más marketing que otra cosa.
  13. Esperemos que el "coste por uso" baje y se pueda utilizar cada vez tecnología más barata.

    Como siempre la Sanidad, cuanto más lejos de Aseguradoras y más cerca de "pago por servicio" mejor, que sino nos la cuelan como en USA, con "Oligopolio" y Omertá de Precios.

    Bien por Nvidia, IBM también tenía a Watson (otra cosa es quien se beneficia de esto), seguro que la Sanidad Pública (incluso con todo lo que se invierte en Investigación y Desarrollo), muchas veces no

    Beneficios del Capital Vs Desarrollo (esa es la tensión), la pregunta no es uno ni otro, sino cual prevalece.
  14. #16 Es marketing. Dentro de 10 años TODO lo que se usa hoy estará totalmente desfasado .. y los que conozco (3t) se contratan con los costes de instalación, formación y mantenimiento por menos de la mitad de 3M.
  15. #2 #11 Alguien sabe cuanto "cuesta" la producción de las máquinas (costes de producción reales?), de "fábrica" vamos, sin contar amortización de inversiones, y alguna cosa más.

    Entiendo que aquí hay un Hardware "médico" y otro "Hardware-chip para IA" donde corre el Software-IA de Nvidia, o de otros socios.

    El Chip, no creo que cueste mucho (producirlo), pero me interesa saber el coste real de producción de las máquinas (no el precio de venta)

    Un saludo.
  16. #20 Comparto lo que dices, pero no es lo que preguntaba.

    Tenía claro ya, que el I+D, el coste de Desarrollo, y la Investigación es mayor que la Producción material en Tecnología, por eso puse:

    "sin contar amortización de inversiones, y alguna cosa más."

    Te veía interesado en el tema, de ahí mi pregunta.
  17. #21 Bueno, pues ya has visto más que yo... Buá, buá, buà.
    Nuestro amado prócer insistía hace nada en que con un 1.5 teníamos de sobra ( si hay que tardar un poco, se tarda ) pero ahora con las donaciones de no me acuerdo Quién( bit.ly/2iZL4lQ ) ya se instala el 3T.
    Suertudos los del 5. ( Ya falta menos para el 1000T.! )
  18. #5 Gracias por esa fuente.
    No sé que pasa, con el Periodismo y los Datos numéricos, es un error eterno, y repetitivo... pasa muchísimo, y en lugar de revisarlo (que hoy día el medio es dinámico) pasan de todo, y a otra cosa (el enésimo artículo nuevo).

    Para colmo, pasan los días y suelen quedar sin solucionar, errores de libro (información efímera sin contrastar)

    Luego pasa que en lugar de usar Infografías o gráficas para contrastar y comparar datos, dejan datos "en océanos de texto" ahí, a su suerte xD, el ejemplo paradigmático son las "Elecciones Generales" y los resultados, en muchos sitios, juegan a meter datos sin infografías, y por ejemplo, cuando "uno" quiere consultar porcentajes de Participación, Abstención o desgloses por comunidades y poblaciones (es Información que no está)

    Como desconfiado que soy, pienso, Información que no está, no vaya a ser que haya Incosistencias, y el contraste y la lupa de la Transparencia, les juegue una mala pasada...

    Igual estoy solo en esto, pero, tan difícil es que utilicen con Propiedad Datos, Magnitudes, porcentajes, referencias para comparar... Gráficas e Infografías... que además hay herramientas "libres" fáciles de instalar.

    Maldita era post-timeline, de la Información poco profunda y trabajada xD
  19. #2 perdón por el negativo, compenso en otro lado.
  20. #11 Pues más a mi favor; yo tiré por lo bajo para asegurar la comprobación de mi hipótesis (#2) que el coste de postproceso de imágenes en las GPUs, que es de lo que va la noticia, es el chocolate del loro frente al resto (tras una breve búsqueda1 vi más sitios con precios del rango que indiqué, aunque también los vi de 3 millones, pero con un rango por lo bajo me servía)

    1 info.blockimaging.com/bid/93368/ge-ct-scanner-cost-price-info
  21. #2 El coste está bajado artificialmente haciendo dumping. NVidia lo que consigue con esto es información a saco para entrenar su IA y hacerla mejor, ahí es donde está la ganancia. A partir de ahí cerrarán el grifo al resto de hospitales que quieran el producto y a los "primeros" es posible que les sigan dejando el sistema a ese coste.
  22. A General Electric no le hará ni pizca de gracia esta irrupción de Nvidia. Les jode el chiringuito.
  23. Bien, es algo muy novedoso. Aunque el sector ya tenía apoyo de Intel pata el procesamiento de datos, estamos claros de que Nvidia para trabajar en procesamiento gráfico no tiene comparación. Esperemos que todo siga su curso!
comentarios cerrados

menéame