edición general
  1. @Malversan Bueno, que DotCSV va un poco a la zaga.
    Aunque la verdad es que la información está muy dispersa y a veces es jodidamente demasiado técnica. Con lo que vendrá bien a mucha gente, sobre todo si no jaja inglés.

    Pero es cierto, que no deja de vivir de hacer evangelismo.

    De lo que hablo es lo que se publica en Reddit. Claro qué para probar los modelos decentes hay que juntar GPUs suficientes para sumar más de 80 GBs de VRAM.

    @trasier
  1. @thorin para probar con ram llega, no necesitas que sea vram. No es tan lento, la peña es muy impaciente
    Y aliexpress vende rx580 trucadas para tener 16gbs por menos de 100 euros cada una :roll:
    @Malversan @trasier
    1. @Nadieenespecial Una pena llevar vida de nómada.
      Me compraría un par.

      @Malversan @trasier
  2. @thorin La falta de fiabilidad de las IA no es cuestión de potencia, es por diseño.

    Las IA actuales no tienen el menor conocimiento semántico, no tienen ni puta idea de qué les estás pidiendo, simplemente son buenas apedazando la respuesta estadísticamente más probable. Lo cual implica que si la respuesta no está en su entrenamiento, te van a soltar un despropósito inventado. El que tenga la probabilidad más alta de ser la respuesta, aunque dicha probabilidad sea ridícula.
    1. @Malversan Eso también, pero no es lo mismo Llama 2 de tamaño 7b que de tamaño 70b, que requiere más potencia.
      El primero hace listo al segundo.
  3. @Malversan la IA tiene problemas gordos por como ha sido alimentada, si atiendes la mayoría de manuales de programación, estos están explicados con el culo o giran en torno a los 3-4 centros, para enseñar a programar a una IA necesitarías a gente muy experta en programar que administre las entradas con las que lo alimentas. Por poner un ejemplo yo me tiré años gestionando la memoria de los programas como el culo porque nadie me enseñó otra forma de hacerlo ni corrigió mi código o cuando lo hizo no me explicaban que cambiaban y por qué, así que seguía haciéndolo mal, y parte de ese código de GitHub seguramente lo ha usado la IA para aprender.

    Otra cosa que afecta bastante es no haber segmentado las entradas, ahí tienes un problema gordo con el inglés y el castellano, porque han alimentado al algoritmo con esos idiomas, pero sin hacer un criterio geográfico, y las construcciones que hace tienen un tono de castellano neutro con unas estructuras formales no muy típicas en el castellano que se habla en España, pídele que te cree el texto de un correo electrónico y siempre lo empezará con la expresión "espero que esté correo te encuentre bien"
    @thorin
    1. @oninoneko_levossian Pues no sé qué decirte, justamente con la traducción entre idiomas las IA se desenvuelven bastante bien, mejor que cualquier sistema preexistente.

      En lo que desde luego no coincido es en que la pureza de los manuales o instrucciones las haga más inteligentes. Porque no es ése el problema, la causa de sus incoherencias e incapacidades es más fundamental.

      El problema es que si les haces una petición específica para la que no han sido entrenadas se van a inventar la respuesta. Fiabilidad cero.

      Al crear software la situación es ésa casi todo el tiempo: problemas que requieren soluciones nuevas o ingeniería no preexistente (si no fuese así hace mucho tiempo que no existirían programadores). En esa tesitura las IA actuales la van a cagar siempre, por diseño.

      Antes ponía el ejemplo de que una IA te puede componer un poema shakespeariano pero cagarla estrepitosamente al sumar 2+3. Porque la operación requiere un entendimiento semántico del problema y una respuesta precisa, no una evaluación estadística de cuál es el la expresión más probable que va a continuación. El actual paradigma de IA es muy bueno en eso último, pero en entendimiento semántico es nulo.

menéame