edición general
263 meneos
2377 clics
Comentarios destacados:                      
#13 #10 ha decidido autopublicarse como torrent para tomar el control de los ordenadores :tinfoil:
  1. Meta new large lanugage model (similar to OpenAI one) called LLaMA is leaked via torrent
    www.reddit.com/r/StableDiffusion/comments/11h2wpv/meta_new_large_lanug

    Meta’s new 65-billion-parameter language model Leaked online
    www.reddit.com/r/programming/comments/11hj5x1/metas_new_65billionparam

    Jeffrey Ladish:
    "Get ready for loads of personalized spam and phishing attempts. Open sourcing these models was a terrible idea"
    twitter.com/JeffLadish/status/1631825647436980224

    Introducing LLaMA: A foundational, 65-billion-parameter large language model
    ai.facebook.com/blog/large-language-model-llama-meta-ai/

    es.wikipedia.org/wiki/Modelación_del_lenguaje

    :popcorn:
  2. #0 Para evitar el #microblogging estaría bien que escribieras la información en |Artículos :popcorn:
  3. #1
    Jeffrey Ladish:
    "Both can be true:
    1) Language models are really useful and can help people learn, write, and research more effectively
    2) The rapid development of huge models is extremely dangerous and a huge contributor to AI existential risk"
    twitter.com/JeffLadish/status/1631971580707495936

    I can see an argument for risk tolerance in the near term but I think that's failing to see the big picture
    Language models can do a lot of awesome things for people that will be very good, and also some bad things that will be very bad
    But the biggest risk comes from AGI
    twitter.com/JeffLadish/status/1631961819886813184

    :popcorn:
  4. #2 sí, pero el contenido está bien reflejado así que aún así no lo consideraría microblogging.
  5. #2 Sip, el problema es que en estos momentos, hasta donde yo he podido buscar, no existen artículos que estén cubriendo esta noticia, por lo que he procurado recabar toda la info disponible. Creo que dada la relevancia de la noticia es preferible publicarla aquí en lugar de en |Artículos, cuya visibilidad es más reducida.
  6. #3

    La LLaMA de Yann LeCun, Premio Princesa de Asturias 2022 (www.fpa.es/es/premios-princesa-de-asturias/premiados/2022-geoffrey-hin) estará echando humo.

    twitter.com/ylecun

    ya me voy
  7. Que empiece la fiesta!
  8. Kabooom! buen provecho. {0x1f44d}
  9. A ver si no va a tener tiene bicho dentro...

    En cualquier caso, una vez filtrado, será imposible de retirar
  10. Cuidado que puede ser Skynet distribuyéndose.
  11. El azar hizo que pudiese usar ChatGPT durante sus primeros días en abierto, cuando no había sido restringido como ahora, y tuve claro que estaba presenciando el futuro. Todo esto se volverá exponencial. La gente que lo ha probado podría incluso volverse fácilmente adicta a este tipo de interacción, porque si tienes un modelo de lenguaje avanzado puedes inventarte parejas virtuales a medida. Imaginad lo que eso significa para la generación incel. Es como la película HER, pero sin lo bonito.
    De aquí a los primeros sucesos de tipo "se quiere casar con su IA", "asesinó a diez personas porque la IA se lo dijo" o el "nuevo nominado al nobel de física es un niño de 14 años que trabaja con su IA"... sólo estamos en tiempo de descuento.
    Os lo garantizo: www.youtube.com/watch?v=ky2rwSXZ3CA
  12. LLaMA mucho la atención pero esto no lo hace funcionar cualquiera en cualquier PC
  13. #10 ha decidido autopublicarse como torrent para tomar el control de los ordenadores :tinfoil:
  14. La LLama que llama a tu casa haciendose pasar por el del banco por que alguien ha accedido a tu cuenta y necesita tus datos para verificar que eres tu y devolverte el dinero extraviado.
    Ya veras tu que risas se nos vienen encima.
  15. #13 Es una forma sencilla y eficaz para evitar que sus creadores puedan apagarla.
  16. No entiendo. Si se ha filtrado y Meta no lo ha autorizado, qué hace el enlace magnet de torrent en el Github de open source de Meta?
  17. #11 En cuanto avance un poco y además se pueda "acoplar" a tu cerebro en modo de lectura incluso podremos vivir para siempre haciéndonos un backup a un robotaco con IA, un duplicado nuestro que viva eternamente y sin problemas de salud ni mentales, ni emocionales...
  18. #17 simplemente la noticia es que en lugar de un form y una preaprobación ahora han puesto directamente el torrent, pero de filtración nada, lo han publicado y ya está, eso o se les ha revelado un desarrollador: github.com/facebookresearch/llama/pull/73/files
  19. #3 Repo con instrucciones mas detalladas de instalación y carga de los modelos:
    github.com/RayHell/llama
  20. Y para que le sirve eso a un ciudadano mortal?
  21. #11 yo estoy convencido que en breve la investigación en casi cualquier campo estará controlada por IAs, y quien no las controle que se olvide de innovar.
  22. #1 Mucho mejor que a esa tecnología solo tengan acceso las megacorporaciones y los gobiernos, seguro que hacen un uso ético de ellas xD
  23. #21 El acceso no ha sido restringido, lo que se ha ido haciendo con el tiempo y los usuarios que han pasado por el modelo de lenguaje es "tunear" su capacidad y manera de dar respuestas. Al principio casi no tenía ninguna limitación o con argucias lógicas podías engañarle para que saltase sobre las pocas que tuviese, y podías hacer cualquier cosa: partidas de rol inventadas y narradas por la IA en directo, quimeras de personalidades, "novias virtuales", tutoriales con recetas para bombas, escribir libros completos... era bastante loco.
    Y no lo estás entendiendo, a mi la IA "me da igual", de lo que soy consciente es de que un modelo de lenguaje de capacidades similares a GPT3 es capaz de dar respuestas con un estilo cultura e intelectual que supera a 9 de cada 10 personas. Otra cosa es si sus respuestas son hechos o si no puede sumar 2+2, pero lo innegable es que puede dar respuestas que parecen reales y humanas, y a mucha gente le basta con eso, para muchas cosas, aunque vaya contra nuestra intuición.
    Y eso va a traer MUCHAS movidas.
  24. #17 Aparentemente es super facil tener acceso completo al modelo si eres un desarrollador o investigador, no como chatgpt que solo dan la api, aqui dejan descargarse el modelo reentrenarlo y de todo
    Supuestamente alguien ha metido la pata y lo ha publicado, con su link personalizado, es decir, que meta puede saber perfectamente quien fue.
  25. #14 Teniendo en cuenta la pasta que vale el hardware para poner en marcha un modelo de estos seguramente sea más barato contratar un call center en India como hacen ahora
  26. #27 que va, por lo visto los modelos de 7b y 13b son muy eficientes y pueden correrse con un equipo medio alto de consumo.
    Y estos no comen ni descansan.
  27. #27 En realidad, una vez el modelo está entrenado, no se necesitan máquinas super impresionantes. Lo jodido es tenerlas evolucionando, para lo que si que necesitas mucha más capacidad de procesamiento, etc.
  28. #22 Poder ejecutarlo en tu hardware sin depender de empreas ni "nubes" ajenas y hacer con ello lo que te de la gana sin restricciones
  29. #28 Interesante, pensaba que aun se necesitaban cantidades grandes de vram como chatgpt, desde luego si es así cambia mucho todo
  30. #31 64gb ram (para el de 13 recomiendan 128gb), pero ademas la ram esta bajando mucho de precio, es algo que esta al alcance de mucha gente con una inversion bastante modesta. Ya tenemos un fork del servidor que va solo con cpu github.com/randaller/llama-cpu (original usa nvidia-cuda)
    Y dale tiempo a que salgan versiones con soporte para AMD, mejoras, que otros projectos sean capaces de cargar estos modelos, larguisimo etc, esto va a ser otro stable-diffussion, o al menos tiene toda la pinta.
  31. #21 Antes le pedías que te escribiera un cuento con un vampiro y lo hacía, y ahora salvo que la "hackees" dice que no, porque podría asustar a los niños, así de Flanders la han dejado.    
  32. Me espero a que alguien suba una imagen de máquina virtual con todo ya listo, que últimamente me da mucha pereza
  33. Semanas esperando y NO me carga el magnet... Router/nat/firewall/vpn y encima me estoy meando {0x1f62d} {0x1f62d} {0x1f61d}
  34. #34 Es posible que sea una estafa. Pero hay mucha gente de muy alto nivel intelectual que de idiotas tienen muy poco muy asustada con esto. No digo con esto que tú no tengas ese nivel, claro... :roll:
  35. #10 Puede... :troll:
  36. #12 En una semana tendrá miles de instalaciones en los r/homelabs de medio mundo.  media
  37. #35 Y ve preparando el equipo, que para el modelo de 7B necesitas una grafica con 16gb de vram, y 16 gb de ram xD
  38. #34 La cuestión clave aquí es que se ha dado con el "grial" de la inteligencia artificial, y no ha resultado ser la capacidad de proceso (como muchos creíamos), si no el entrenamiento. Esto quiere decir que a partir de ahora la evolución será exponencial. Y lo que hoy son respuestas que parecen reales, mañana serán respuesta reales, y pasado mañana en combinación con otras redes neuronales estaremos en la antesala de la inteligencia artificial general. Y ni siquiera habremos necesitado cerebros cuánticos ni otras movidas de ciencia ficción, lo cual una vez más nos da una idea de nuestra escala como especie. Pero el tema de verdad, en mi humilde opinión, es todo lo que ocurriá entre medias, con una civilización que va a parir una nueva forma de inteligencia antes de asegurar que su propia inteligencia sea digna de perdurar.
    cc/ #37
  39. #34 Yo he estado trabajando generando código en Java, Shell script y Python y... No sabéis lo que se nos viene encima. Que sea realmente inteligente o no es lo de menos
  40. #30 algún tutorial cómo hacerlo?
  41. #41 Totalmente de acuerdo con tu última frase. Si damos con una inteligencia artificial real, con una potencia de cálculo mucho mayor a la nuestra, a lo mejor nuestra especie podría ser una muesca en la evolución para dar paso a otra. O me estoy flipando y poco más.
  42. #40 como por ejemplo cuál sería el hardware más asequible?
  43. #43 A ver, si antes de ponerse con el lenguaje, precisamente las redes neuronales fueron capaces de resolver el plegado de las proteínas... ¿de verdad crees que les va a costar emular una inteligencia humana? Repito, es cuestión de tiempo, y el que lo niegue se va a dar de bruces contra el muro de la exponencialidad.
  44. #47 Si lo que quieres es "jugar" un rato, te compensa pillar un shadowpc o un runpod, el segundo sale a 1 dolar la hora.

    Si lo que quieres es montarlo en tu casa... pues una grafica con 24gb de vram, 32gb de ram... y 1tb de ssd eso para el modelo pequeño, el grande es inabarcable xD

    Y aún así, saldrá caro, una grafica de esas no vale 500€, ni 1000€
  45. #11 "cuando no había sido restringido como ahora" xD
  46. #49 a ver en serio, que requisitos hacen falta?. los 32 GB de RAM y el tb SSD ya los tengo

    valdría cualquiera de estas gráficas?
    pangoly.com/en/hardware/vga/gpu-memory-size/24-gb
  47. #51 www.amazon.es/EVGA-GeForce-24G-P5-3987-KR-Technology-Backplate/dp/B08H

    Eso. xD

    La cpu, tendrá que ser algo acorde, un i7 o un ryzen 9, aunque lo primordial es la gráfica.
  48. #40 rayos. Me queda corta la gráfica. :shit:

    A ver si con una 4080 xD
  49. #53 Pues andan por ahi de precio...

    Y ya te digo, eso es lo minimo ninimo, de ahi para arriba si quieres mover el modelo de 65 billones....

    Por eso te decía lo del runpod, pagas que se yo 10 o 20€ lo pruebas unas horillas, te aburres y lo quitas, igual si me da el venazo lo hago yo un día
  50. #52 gracias.

    joder ahora que la gráficas estaban bajando se van a volver a ir por las nubes por esta mierda...
  51. #55 nah, desde lo de la pandemia no han bajado, sigue habiendo escasez de chips.
  52. #27 El acento les delata
  53. ¿Nos podeis traducir el titular a los que follamos? Gracias.
  54. #54 Molaría que re-alquilases el acceso para los que no nos apetece montar todo el tinglado, pero tenemos curiosidad por jugar un poco con esa IA.
  55. A ver, lo importante. Está capada a lo woke o es una IA anarquista y salvaje? Porque para IAs políticamente correctas, ya tenemos a ChatGPT...
  56. #49 Madre mía, vaya requisitos. Vamos, que yo con mi portátil sólo podría "emular" la inteligencia de un telespectador compulsivo de Tele5. :troll:
  57. ChatGpt:
    La filtración y distribución del modelo de lenguaje LLaMa de Inteligencia Artificial, similar al de OpenAI, puede tener varias consecuencias técnicas para la humanidad:

    Posible aumento en la competencia de IA: LLaMa es un modelo de lenguaje de alta calidad y puede utilizarse en diversas aplicaciones de inteligencia artificial. Su filtración y distribución pueden aumentar la competencia en el campo de la IA, lo que podría llevar a una mayor innovación y desarrollo en este campo.

    Riesgos de seguridad cibernética: La filtración del modelo LLaMa también puede plantear riesgos de seguridad cibernética, ya que puede ser utilizado por ciberdelincuentes para generar contenido falso y malicioso en línea. Además, también puede ser utilizado para realizar ataques de phishing o para engañar a las personas mediante la manipulación de texto generado por IA.

    Posible aumento de la desinformación: Al igual que con cualquier modelo de lenguaje de IA, LLaMa también puede ser utilizado para generar texto que puede ser utilizado para propagar información errónea o desinformación. La filtración del modelo podría aumentar la cantidad de información falsa que se difunde en línea.

    Aumento de la capacidad de procesamiento de la IA: El modelo LLaMa es grande y complejo, lo que significa que puede requerir mucha capacidad de procesamiento y almacenamiento para funcionar. Su filtración y distribución pueden aumentar la capacidad de procesamiento y almacenamiento necesario para entrenar y ejecutar modelos de lenguaje de IA.
  58. #64 Al final volvemos a la enciclopedia Larousse xD
  59. #5 Gracias por el aporte. En los próximos días espero multitud de gente experimentando para bien o para mal. Y espero ver gran cantidad de información también.
  60. #21 De acuerdo. Yo sigo insistiendo en que todavía no existe la IA, porque no es "inteligente".
    Sólo son muchos datos analizados de una o varias maneras y nada más. Pero no tiene ni idea de lo que son ni nada...

    Existirá, estoy convencido, pero todavía no la hay.

    Y también creo que está sobrevalorada. Se cree que va a conquistar todo y hacer todo obsoleto... demasiado "hype" hay con eso...
  61. #19 Entonces es errónea/sensacionalista?
  62. #68 depende, es posible que hayan obtenido el control de la cuenta de github del desarrollador y no haya sido algo voluntario, entonces si podría ser similar a una filtración.
  63. #11 la tercer noticia, me parece imposible, pero si fuese cierta no veo ningún problema.
  64. #67 Sobrevalorada ni de broma, lo que pasa es que lo queremos ahora y ya. Y no somos capaces de ver más allá del día a día.
  65. #11 El Chat GTP "hace pocos días ha aprobado el examen de licenciatura en Medicina de EEUU (US Medical Licensing Examination)" El Confidencial.
  66. #60 Pos mira, si algún día lo monto te aviso. Aunque por lo que he leido, no le llega a la suela a chatgpt.

    Y ese puedes probarlo en visual studio code, con esta extensión:

    github.com/timkmecl/chatgpt-vscode

    Y registrandote en openai (te dan 5 dolares de prueba que dan de sobra para matar el gusanillo)
  67. #62 Bueno, míralo por el lado bueno, tienes para el computo global de votantes de vox y podemos juntos xD

    Aunque no es mucho consuelo la verdad
  68. #11 ¿La IA es el nuevo juego de rol que nos va a convertir en asesinos de la katana?
  69. #41 Por mucho alucinaje que nos peguemos, mientras esas inteligencias no comprendan cosas tan básicas como que un señor que está dando conferencias no está muerto, no valdrán ni para procesar biografías.
    Y ese es el caso y lo será en el largo plazo. Se trata de IAs que no entienden un chorro de meao de lo que te están diciendo, por mucho que puedan resultar útiles, o molonas, o resultonas, sólo con dar unas respuestas que dan el pego y poco más.
  70. #74 sí, lo de "analizar de una o varias maneras" era una manera burda de resumir lo que creo que es.
    No es intentar desmerecer la cantidad de algoritmos y demás que hay detrás de lo que hay actualmente, sólo que no es, al menos para mí, de momento "inteligente"...
  71. Vamos a morir todos.
  72. #43 Bueno campeón. Yo he conseguido que funcione. Ha necesitado varios inputs por mi parte pero lo ha hecho. No es mágico pero es una herramienta muy potente. Y tengo ya los huevos pelaos en esto del software, pero nada. No he venido a convencerte de nada.
  73. #67 hablando de ciertos temas (religión, política...) con la mayoría de personas, observas que no hay tanta diferencia. Ellos repiten los datos programados, según han visto en la TV u oído a otros... O aleccionados por los padres. Según esto, así te responden. Sí les cuestionas, cortocircuitan. No somos tan inteligentes como nos creemos.

    Yo, principalmente, veo la diferencia en las emociones, aunque en nuestra sociedad estas están mal vistas, y tendemos a ocultarlas o dejarlas en un segundo plano.
  74. #73 Le echo un vistazo. Gracias!
  75. #82 Tú estás hablando de copilot. Y esto no es lo mismo. He usado ambos
  76. #11 Hace un par de años, bastante antes de ChatGPT, lo estaba petando en GPT-2 un juego online impresionante llamado "AI Dungeon" con el que co-escribías historias con la IA. La noche que lo descubrí no podía parar, de lo espectaculares que eran los resultados.

    ¿Para qué lo utilizaba mucha gente? Para generar historias NSFW y pajearse.

    Hasta el punto que los de AI Dungeon un año después tuvieron que restringirlo un montón porque veían que la gente lo dedicaba a montarse fantasías de zoofilia y pederastia.
  77. #0 El enlace debería venir en la descripción.

    [magnet:?xt=urn:btih:ZXXDAUWYLRUXXBHUYEMS6Q5CE5WA3LVA&dn=LLaMA](magnet:?xt=urn:btih:ZXXDAUWYLRUXXBHUYEMS6Q5CE5WA3LVA&dn=LLaMA)

    github.com/facebookresearch/llama
  78. #34 Tal vez quienes le encuentran utilidad no sean los idiotas...
  79. #54 si quieres mover el de 65 billones necesitas eso mismo pero de € xD
  80. #59 cuanta sutilidad y mala baba en tan pocas palabras. Mis dieses.
  81. #90 en teoría, 10 gráficas de 24gb cada una y 240gb de ram.

    así a ojo unos 50000€ solo con eso, luego hay que sumar 10 placas, 10 micros, 10 fuentes...

    la broma puede andar por los 100000€
  82. #92 nada que un máster racer no pueda gastar.
comentarios cerrados

menéame