edición general
  1. @thorin Te sugiero como ejercicio que te pongas cualquier vídeo demostrativo del canal DotCSV. Es un verdadero fanático de las IA porque vende cursos del tema y le va la pasta en ello. Tiene acceso a lo último de lo último.

    Y cada vez que ha hecho una demostración sobre las capacidades de las IA para programar ha sido una puta risa. Los resultados no funcionan nunca, ni por casualidad. E incluso cuando una parte funciona ni remotamente se parece a lo solicitado.

    El pobre ha dejado de publicar esas demostraciones porque le joden el chiringuito de ilusión que tiene montado por interés. Ahora se dedica casi en exclusiva a publicar demostraciones sobre IA generativas, porque creando imágenes y vídeos de fantasía es imposible cagarla y tirarse piedras a su propio tejado.

    Copia para @trasier .
  1. @Malversan Bueno, que DotCSV va un poco a la zaga.
    Aunque la verdad es que la información está muy dispersa y a veces es jodidamente demasiado técnica. Con lo que vendrá bien a mucha gente, sobre todo si no jaja inglés.

    Pero es cierto, que no deja de vivir de hacer evangelismo.

    De lo que hablo es lo que se publica en Reddit. Claro qué para probar los modelos decentes hay que juntar GPUs suficientes para sumar más de 80 GBs de VRAM.

    @trasier
    1. @thorin La falta de fiabilidad de las IA no es cuestión de potencia, es por diseño.

      Las IA actuales no tienen el menor conocimiento semántico, no tienen ni puta idea de qué les estás pidiendo, simplemente son buenas apedazando la respuesta estadísticamente más probable. Lo cual implica que si la respuesta no está en su entrenamiento, te van a soltar un despropósito inventado. El que tenga la probabilidad más alta de ser la respuesta, aunque dicha probabilidad sea ridícula.
    2. @Malversan la IA tiene problemas gordos por como ha sido alimentada, si atiendes la mayoría de manuales de programación, estos están explicados con el culo o giran en torno a los 3-4 centros, para enseñar a programar a una IA necesitarías a gente muy experta en programar que administre las entradas con las que lo alimentas. Por poner un ejemplo yo me tiré años gestionando la memoria de los programas como el culo porque nadie me enseñó otra forma de hacerlo ni corrigió mi código o cuando lo hizo no me explicaban que cambiaban y por qué, así que seguía haciéndolo mal, y parte de ese código de GitHub seguramente lo ha usado la IA para aprender.

      Otra cosa que afecta bastante es no haber segmentado las entradas, ahí tienes un problema gordo con el inglés y el castellano, porque han alimentado al algoritmo con esos idiomas, pero sin hacer un criterio geográfico, y las construcciones que hace tienen un tono de castellano neutro con unas estructuras formales no muy típicas en el castellano que se habla en España, pídele que te cree el texto de un correo electrónico y siempre lo empezará con la expresión "espero que esté correo te encuentre bien"
      @thorin
  2. @Malversan pues a mí me va muy bien para las expresiones en M y en dax para power bi, porque no tienen el nivel de dependencias de un programa, a la IA se le pueden pedir cosas, pero más como apoyo que como sustitución de una persona que sepa @thorin @trasier
    1. @oninoneko_levossian Que sí, que para copiar una tarea sencilla sirve. De hecho GPT tiene acceso a millones de repositorios para plagiar por la jeta.

      Pero a la que le pidas algo que haga DOS tareas sencillas, la caga. Sin remisión.

      No piensa, no sabe qué hace lo que copia, y de hecho no tiene ni repajolera idea de qué le estás pidiendo. El paradigma de IA actual no es semántico, es sólo composición estadística.

      Copia para: @thorin , @trasier
  3. @thorin para probar con ram llega, no necesitas que sea vram. No es tan lento, la peña es muy impaciente
    Y aliexpress vende rx580 trucadas para tener 16gbs por menos de 100 euros cada una :roll:
    @Malversan @trasier
    1. @Nadieenespecial Una pena llevar vida de nómada.
      Me compraría un par.

      @Malversan @trasier
      1. @thorin mira que soy anti apple, pero si el gasto inicial eso no es problema, los mac mini nuevos en relación calidad precio para esto son brutales, su ram soldada da un rendimiento brutal @Malversan @trasier
        1. @Nadieenespecial Sí, ya he leído de personas que se lo han comprado por eso para temas de LLM.
        2. @Nadieenespecial lo dudo muchísimo
        3. @thorin ¿sin CUDA? Van a Nvidiar a los que tienen una tarjeta con CUDA, creo.

          @Nadieenespecial

      menéame