#1
Jeffrey Ladish:
"Both can be true:
1) Language models are really useful and can help people learn, write, and research more effectively
2) The rapid development of huge models is extremely dangerous and a huge contributor to AI existential risk" twitter.com/JeffLadish/status/1631971580707495936
I can see an argument for risk tolerance in the near term but I think that's failing to see the big picture
Language models can do a lot of awesome things for people that will be very good, and also some bad things that will be very bad But the biggest risk comes from AGI twitter.com/JeffLadish/status/1631961819886813184
#2 Sip, el problema es que en estos momentos, hasta donde yo he podido buscar, no existen artículos que estén cubriendo esta noticia, por lo que he procurado recabar toda la info disponible. Creo que dada la relevancia de la noticia es preferible publicarla aquí en lugar de en |Artículos, cuya visibilidad es más reducida.
El azar hizo que pudiese usar ChatGPT durante sus primeros días en abierto, cuando no había sido restringido como ahora, y tuve claro que estaba presenciando el futuro. Todo esto se volverá exponencial. La gente que lo ha probado podría incluso volverse fácilmente adicta a este tipo de interacción, porque si tienes un modelo de lenguaje avanzado puedes inventarte parejas virtuales a medida. Imaginad lo que eso significa para la generación incel. Es como la película HER, pero sin lo bonito.
De aquí a los primeros sucesos de tipo "se quiere casar con su IA", "asesinó a diez personas porque la IA se lo dijo" o el "nuevo nominado al nobel de física es un niño de 14 años que trabaja con su IA"... sólo estamos en tiempo de descuento.
Os lo garantizo: www.youtube.com/watch?v=ky2rwSXZ3CA
La LLama que llama a tu casa haciendose pasar por el del banco por que alguien ha accedido a tu cuenta y necesita tus datos para verificar que eres tu y devolverte el dinero extraviado.
Ya veras tu que risas se nos vienen encima.
#11 En cuanto avance un poco y además se pueda "acoplar" a tu cerebro en modo de lectura incluso podremos vivir para siempre haciéndonos un backup a un robotaco con IA, un duplicado nuestro que viva eternamente y sin problemas de salud ni mentales, ni emocionales...
#17 simplemente la noticia es que en lugar de un form y una preaprobación ahora han puesto directamente el torrent, pero de filtración nada, lo han publicado y ya está, eso o se les ha revelado un desarrollador: github.com/facebookresearch/llama/pull/73/files
#11 yo estoy convencido que en breve la investigación en casi cualquier campo estará controlada por IAs, y quien no las controle que se olvide de innovar.
#21 El acceso no ha sido restringido, lo que se ha ido haciendo con el tiempo y los usuarios que han pasado por el modelo de lenguaje es "tunear" su capacidad y manera de dar respuestas. Al principio casi no tenía ninguna limitación o con argucias lógicas podías engañarle para que saltase sobre las pocas que tuviese, y podías hacer cualquier cosa: partidas de rol inventadas y narradas por la IA en directo, quimeras de personalidades, "novias virtuales", tutoriales con recetas para bombas, escribir libros completos... era bastante loco.
Y no lo estás entendiendo, a mi la IA "me da igual", de lo que soy consciente es de que un modelo de lenguaje de capacidades similares a GPT3 es capaz de dar respuestas con un estilo cultura e intelectual que supera a 9 de cada 10 personas. Otra cosa es si sus respuestas son hechos o si no puede sumar 2+2, pero lo innegable es que puede dar respuestas que parecen reales y humanas, y a mucha gente le basta con eso, para muchas cosas, aunque vaya contra nuestra intuición.
Y eso va a traer MUCHAS movidas.
#17 Aparentemente es super facil tener acceso completo al modelo si eres un desarrollador o investigador, no como chatgpt que solo dan la api, aqui dejan descargarse el modelo reentrenarlo y de todo
Supuestamente alguien ha metido la pata y lo ha publicado, con su link personalizado, es decir, que meta puede saber perfectamente quien fue.
#14 Teniendo en cuenta la pasta que vale el hardware para poner en marcha un modelo de estos seguramente sea más barato contratar un call center en India como hacen ahora
#27 que va, por lo visto los modelos de 7b y 13b son muy eficientes y pueden correrse con un equipo medio alto de consumo.
Y estos no comen ni descansan.
#27 En realidad, una vez el modelo está entrenado, no se necesitan máquinas super impresionantes. Lo jodido es tenerlas evolucionando, para lo que si que necesitas mucha más capacidad de procesamiento, etc.
#31 64gb ram (para el de 13 recomiendan 128gb), pero ademas la ram esta bajando mucho de precio, es algo que esta al alcance de mucha gente con una inversion bastante modesta. Ya tenemos un fork del servidor que va solo con cpu github.com/randaller/llama-cpu (original usa nvidia-cuda)
Y dale tiempo a que salgan versiones con soporte para AMD, mejoras, que otros projectos sean capaces de cargar estos modelos, larguisimo etc, esto va a ser otro stable-diffussion, o al menos tiene toda la pinta.
#21 Antes le pedías que te escribiera un cuento con un vampiro y lo hacía, y ahora salvo que la "hackees" dice que no, porque podría asustar a los niños, así de Flanders la han dejado.
#34 Es posible que sea una estafa. Pero hay mucha gente de muy alto nivel intelectual que de idiotas tienen muy poco muy asustada con esto. No digo con esto que tú no tengas ese nivel, claro...
#34 La cuestión clave aquí es que se ha dado con el "grial" de la inteligencia artificial, y no ha resultado ser la capacidad de proceso (como muchos creíamos), si no el entrenamiento. Esto quiere decir que a partir de ahora la evolución será exponencial. Y lo que hoy son respuestas que parecen reales, mañana serán respuesta reales, y pasado mañana en combinación con otras redes neuronales estaremos en la antesala de la inteligencia artificial general. Y ni siquiera habremos necesitado cerebros cuánticos ni otras movidas de ciencia ficción, lo cual una vez más nos da una idea de nuestra escala como especie. Pero el tema de verdad, en mi humilde opinión, es todo lo que ocurriá entre medias, con una civilización que va a parir una nueva forma de inteligencia antes de asegurar que su propia inteligencia sea digna de perdurar.
cc/ #37
#34 Yo he estado trabajando generando código en Java, Shell script y Python y... No sabéis lo que se nos viene encima. Que sea realmente inteligente o no es lo de menos
#41 Totalmente de acuerdo con tu última frase. Si damos con una inteligencia artificial real, con una potencia de cálculo mucho mayor a la nuestra, a lo mejor nuestra especie podría ser una muesca en la evolución para dar paso a otra. O me estoy flipando y poco más.
#43 A ver, si antes de ponerse con el lenguaje, precisamente las redes neuronales fueron capaces de resolver el plegado de las proteínas... ¿de verdad crees que les va a costar emular una inteligencia humana? Repito, es cuestión de tiempo, y el que lo niegue se va a dar de bruces contra el muro de la exponencialidad.
#47 Si lo que quieres es "jugar" un rato, te compensa pillar un shadowpc o un runpod, el segundo sale a 1 dolar la hora.
Si lo que quieres es montarlo en tu casa... pues una grafica con 24gb de vram, 32gb de ram... y 1tb de ssd eso para el modelo pequeño, el grande es inabarcable
Y aún así, saldrá caro, una grafica de esas no vale 500€, ni 1000€
ChatGpt:
La filtración y distribución del modelo de lenguaje LLaMa de Inteligencia Artificial, similar al de OpenAI, puede tener varias consecuencias técnicas para la humanidad:
Posible aumento en la competencia de IA: LLaMa es un modelo de lenguaje de alta calidad y puede utilizarse en diversas aplicaciones de inteligencia artificial. Su filtración y distribución pueden aumentar la competencia en el campo de la IA, lo que podría llevar a una mayor innovación y desarrollo en este campo.
Riesgos de seguridad cibernética: La filtración del modelo LLaMa también puede plantear riesgos de seguridad cibernética, ya que puede ser utilizado por ciberdelincuentes para generar contenido falso y malicioso en línea. Además, también puede ser utilizado para realizar ataques de phishing o para engañar a las personas mediante la manipulación de texto generado por IA.
Posible aumento de la desinformación: Al igual que con cualquier modelo de lenguaje de IA, LLaMa también puede ser utilizado para generar texto que puede ser utilizado para propagar información errónea o desinformación. La filtración del modelo podría aumentar la cantidad de información falsa que se difunde en línea.
Aumento de la capacidad de procesamiento de la IA: El modelo LLaMa es grande y complejo, lo que significa que puede requerir mucha capacidad de procesamiento y almacenamiento para funcionar. Su filtración y distribución pueden aumentar la capacidad de procesamiento y almacenamiento necesario para entrenar y ejecutar modelos de lenguaje de IA.
#5 Gracias por el aporte. En los próximos días espero multitud de gente experimentando para bien o para mal. Y espero ver gran cantidad de información también.
#21 De acuerdo. Yo sigo insistiendo en que todavía no existe la IA, porque no es "inteligente".
Sólo son muchos datos analizados de una o varias maneras y nada más. Pero no tiene ni idea de lo que son ni nada...
Existirá, estoy convencido, pero todavía no la hay.
Y también creo que está sobrevalorada. Se cree que va a conquistar todo y hacer todo obsoleto... demasiado "hype" hay con eso...
#68 depende, es posible que hayan obtenido el control de la cuenta de github del desarrollador y no haya sido algo voluntario, entonces si podría ser similar a una filtración.
#41 Por mucho alucinaje que nos peguemos, mientras esas inteligencias no comprendan cosas tan básicas como que un señor que está dando conferencias no está muerto, no valdrán ni para procesar biografías.
Y ese es el caso y lo será en el largo plazo. Se trata de IAs que no entienden un chorro de meao de lo que te están diciendo, por mucho que puedan resultar útiles, o molonas, o resultonas, sólo con dar unas respuestas que dan el pego y poco más.
#74 sí, lo de "analizar de una o varias maneras" era una manera burda de resumir lo que creo que es.
No es intentar desmerecer la cantidad de algoritmos y demás que hay detrás de lo que hay actualmente, sólo que no es, al menos para mí, de momento "inteligente"...
#43 Bueno campeón. Yo he conseguido que funcione. Ha necesitado varios inputs por mi parte pero lo ha hecho. No es mágico pero es una herramienta muy potente. Y tengo ya los huevos pelaos en esto del software, pero nada. No he venido a convencerte de nada.
#67 hablando de ciertos temas (religión, política...) con la mayoría de personas, observas que no hay tanta diferencia. Ellos repiten los datos programados, según han visto en la TV u oído a otros... O aleccionados por los padres. Según esto, así te responden. Sí les cuestionas, cortocircuitan. No somos tan inteligentes como nos creemos.
Yo, principalmente, veo la diferencia en las emociones, aunque en nuestra sociedad estas están mal vistas, y tendemos a ocultarlas o dejarlas en un segundo plano.
#11 Hace un par de años, bastante antes de ChatGPT, lo estaba petando en GPT-2 un juego online impresionante llamado "AI Dungeon" con el que co-escribías historias con la IA. La noche que lo descubrí no podía parar, de lo espectaculares que eran los resultados.
¿Para qué lo utilizaba mucha gente? Para generar historias NSFW y pajearse.
Hasta el punto que los de AI Dungeon un año después tuvieron que restringirlo un montón porque veían que la gente lo dedicaba a montarse fantasías de zoofilia y pederastia.
www.reddit.com/r/StableDiffusion/comments/11h2wpv/meta_new_large_lanug
Meta’s new 65-billion-parameter language model Leaked online
www.reddit.com/r/programming/comments/11hj5x1/metas_new_65billionparam
Jeffrey Ladish:
"Get ready for loads of personalized spam and phishing attempts. Open sourcing these models was a terrible idea"
twitter.com/JeffLadish/status/1631825647436980224
Introducing LLaMA: A foundational, 65-billion-parameter large language model
ai.facebook.com/blog/large-language-model-llama-meta-ai/
es.wikipedia.org/wiki/Modelación_del_lenguaje
Jeffrey Ladish:
"Both can be true:
1) Language models are really useful and can help people learn, write, and research more effectively
2) The rapid development of huge models is extremely dangerous and a huge contributor to AI existential risk"
twitter.com/JeffLadish/status/1631971580707495936
I can see an argument for risk tolerance in the near term but I think that's failing to see the big picture
Language models can do a lot of awesome things for people that will be very good, and also some bad things that will be very bad
But the biggest risk comes from AGI
twitter.com/JeffLadish/status/1631961819886813184
La LLaMA de Yann LeCun, Premio Princesa de Asturias 2022 (www.fpa.es/es/premios-princesa-de-asturias/premiados/2022-geoffrey-hin) estará echando humo.
twitter.com/ylecun
ya me voy
En cualquier caso, una vez filtrado, será imposible de retirar
De aquí a los primeros sucesos de tipo "se quiere casar con su IA", "asesinó a diez personas porque la IA se lo dijo" o el "nuevo nominado al nobel de física es un niño de 14 años que trabaja con su IA"... sólo estamos en tiempo de descuento.
Os lo garantizo: www.youtube.com/watch?v=ky2rwSXZ3CA
Ya veras tu que risas se nos vienen encima.
github.com/RayHell/llama
Y no lo estás entendiendo, a mi la IA "me da igual", de lo que soy consciente es de que un modelo de lenguaje de capacidades similares a GPT3 es capaz de dar respuestas con un estilo cultura e intelectual que supera a 9 de cada 10 personas. Otra cosa es si sus respuestas son hechos o si no puede sumar 2+2, pero lo innegable es que puede dar respuestas que parecen reales y humanas, y a mucha gente le basta con eso, para muchas cosas, aunque vaya contra nuestra intuición.
Y eso va a traer MUCHAS movidas.
Supuestamente alguien ha metido la pata y lo ha publicado, con su link personalizado, es decir, que meta puede saber perfectamente quien fue.
Y estos no comen ni descansan.
Y dale tiempo a que salgan versiones con soporte para AMD, mejoras, que otros projectos sean capaces de cargar estos modelos, larguisimo etc, esto va a ser otro stable-diffussion, o al menos tiene toda la pinta.
cc/ #37
Si lo que quieres es montarlo en tu casa... pues una grafica con 24gb de vram, 32gb de ram... y 1tb de ssd eso para el modelo pequeño, el grande es inabarcable
Y aún así, saldrá caro, una grafica de esas no vale 500€, ni 1000€
valdría cualquiera de estas gráficas?
pangoly.com/en/hardware/vga/gpu-memory-size/24-gb
Eso.
La cpu, tendrá que ser algo acorde, un i7 o un ryzen 9, aunque lo primordial es la gráfica.
A ver si con una 4080
Y ya te digo, eso es lo minimo ninimo, de ahi para arriba si quieres mover el modelo de 65 billones....
Por eso te decía lo del runpod, pagas que se yo 10 o 20€ lo pruebas unas horillas, te aburres y lo quitas, igual si me da el venazo lo hago yo un día
joder ahora que la gráficas estaban bajando se van a volver a ir por las nubes por esta mierda...
La filtración y distribución del modelo de lenguaje LLaMa de Inteligencia Artificial, similar al de OpenAI, puede tener varias consecuencias técnicas para la humanidad:
Posible aumento en la competencia de IA: LLaMa es un modelo de lenguaje de alta calidad y puede utilizarse en diversas aplicaciones de inteligencia artificial. Su filtración y distribución pueden aumentar la competencia en el campo de la IA, lo que podría llevar a una mayor innovación y desarrollo en este campo.
Riesgos de seguridad cibernética: La filtración del modelo LLaMa también puede plantear riesgos de seguridad cibernética, ya que puede ser utilizado por ciberdelincuentes para generar contenido falso y malicioso en línea. Además, también puede ser utilizado para realizar ataques de phishing o para engañar a las personas mediante la manipulación de texto generado por IA.
Posible aumento de la desinformación: Al igual que con cualquier modelo de lenguaje de IA, LLaMa también puede ser utilizado para generar texto que puede ser utilizado para propagar información errónea o desinformación. La filtración del modelo podría aumentar la cantidad de información falsa que se difunde en línea.
Aumento de la capacidad de procesamiento de la IA: El modelo LLaMa es grande y complejo, lo que significa que puede requerir mucha capacidad de procesamiento y almacenamiento para funcionar. Su filtración y distribución pueden aumentar la capacidad de procesamiento y almacenamiento necesario para entrenar y ejecutar modelos de lenguaje de IA.
Sólo son muchos datos analizados de una o varias maneras y nada más. Pero no tiene ni idea de lo que son ni nada...
Existirá, estoy convencido, pero todavía no la hay.
Y también creo que está sobrevalorada. Se cree que va a conquistar todo y hacer todo obsoleto... demasiado "hype" hay con eso...
Y ese puedes probarlo en visual studio code, con esta extensión:
github.com/timkmecl/chatgpt-vscode
Y registrandote en openai (te dan 5 dolares de prueba que dan de sobra para matar el gusanillo)
Aunque no es mucho consuelo la verdad
Y ese es el caso y lo será en el largo plazo. Se trata de IAs que no entienden un chorro de meao de lo que te están diciendo, por mucho que puedan resultar útiles, o molonas, o resultonas, sólo con dar unas respuestas que dan el pego y poco más.
No es intentar desmerecer la cantidad de algoritmos y demás que hay detrás de lo que hay actualmente, sólo que no es, al menos para mí, de momento "inteligente"...
Yo, principalmente, veo la diferencia en las emociones, aunque en nuestra sociedad estas están mal vistas, y tendemos a ocultarlas o dejarlas en un segundo plano.
¿Para qué lo utilizaba mucha gente? Para generar historias NSFW y pajearse.
Hasta el punto que los de AI Dungeon un año después tuvieron que restringirlo un montón porque veían que la gente lo dedicaba a montarse fantasías de zoofilia y pederastia.
[magnet:?xt=urn:btih:ZXXDAUWYLRUXXBHUYEMS6Q5CE5WA3LVA&dn=LLaMA](magnet:?xt=urn:btih:ZXXDAUWYLRUXXBHUYEMS6Q5CE5WA3LVA&dn=LLaMA)
github.com/facebookresearch/llama
así a ojo unos 50000€ solo con eso, luego hay que sumar 10 placas, 10 micros, 10 fuentes...
la broma puede andar por los 100000€