edición general
  1. @Nadieenespecial los precios son desorbitados. No sé concretamente el macmini o Mac studio pero el otro día vi un análisis del Mac de torre (10.000) y como siempre pagas la marca, los componentes son peores que si armas un equipo de 5.000 por piezas. Estamos hablando de 2 años o más de diferencia en el rendimiento.
    Yo monto ordenadores para cálculo/IA etc y los precios son elevados (sector profesional) pero si tienes la pasta y necesitas cálculo no te vas a un Mac.
    No he visto un solo caso donde al mismo precio un Mac sea mejor en sus componentes.
    Lo que pagas es el marketing, el ecosistema y no tener windows. Todas esas cosas a nivel usuario pueden ser un plus pero no valen ese dinero en mi opinión.
  1. @Jakeukalane A ver estamos hablando de cosas diferentes. Yo no hablo del sector profesional, estamos hablando de equipos para el que quiere curiosear a un nivel un poco pro, y que ademas sean equipos compactos, ya que thorin es nomada. La torre de Mac tiene un precio incluso mas absurdo que las demás, yo hablo de los mac mini "gordos"
    Pero si quieres cargar modelos de mas de 24 gigas, hay un rango de precios en el que los mac studio y los macbook pro, ofrecen lo mejor en primera mano, sin meterte en lios de usar mas de una p40 de segunda mano y otras opciones mas de buscarse la vida, como lo ya mencionado usar rx580 trucadas a 16gbs, que consumen mucha electricidad y no son compactos.
    Por 2900 tienes un equipo completo y autosuficiente de 64 gigas a 400GB/s, este precio apenas te da para una nvidia 4090 con un equipo adecuado para ella. Por 3500 pavos ya tienes un equipo de 92 GB con 800GB/s de ancho de banda capaz de cargar modelos que pertenecen a tarjetas de 80gbs muy aceptables. Una 4090 tiene un ancho de banda de memoria de 1008GB/s, que es lo que te limita normalmente
    @vazana no necesitas cuda para usar llama.cpp o stable difussion
    @thorin
    1. @Nadieenespecial yo lo único que digo es que no me he encontrado nunca con ningún equipo Mac que sea realmente acorde en coste / calidad a lo equivalente en el mercado.
      Que en este caso tengo que ponerme a verlo, pero por ejemplo el M2 comparado con otro chip tope de gama daba un rendimiento muy por debajo.
  2. @Nadieenespecial pero sin CUDA va sobre la CPU a velocidad ridícula, ¿no?

    @Jakeukalane @thorin
    1. @vazana A ver, Cuda es un lenguaje de programacion de gpus, propietario de nvidia. Y también le pone a ese nombre a ciertas unidades de procesamiento. Amd tiene rocm, e intel tiene otro, aparte que hay dos libres, Opencl y vulkan
      Pero en AI, y en llms en general tu rendimiento tiene un cuello de botella, enorme, en los tiempos y rapidez de acceso a la memoria, no la capacidad de calculo. Es decir quieres ancho de banda sobre todo. El cual las gpus tienen un montón, mientras que las cpus mucho menos.
      La gran ventaja de los procesadores m1 m2 y m3 es que al tener la ram soldada al chip tienen unos anchos de banda comparables a las tarjetas gráficas, que si bien para otras cosas son bastante meh, y tienen algunos problemas, para AI van genial, al punto que a ciertos precios, Apple es la opción mas barata y eficiente, fíjate lo absurdo que esta el mercado.
      Claro todo esto podría cambiar si Nvidia, Amd, Intel o los chinos que están haciendo gpus, sacasen tarjetas gráficas mas básicas pero con mucha vram. Pero no quieren por que les quitaría ventas mas jugosas. Nvidia no ha llegado a esa valoración absurda en el mercado por dar un buen producto calidad precio a sus clientes

menéame