La comunidad de programadores de código abierto ha puesto manos a la obra para modificar y mejorar modelos de lenguaje similares a ChatGPT. Esto puede tener efectos enormes, para bien y para mal, en el desarrollo de la inteligencia artificial.
|
etiquetas: inteligencia artificial , chatgpt , programación , código abierto
Hay que impulsar toda comunidad de software libre al respecto, si es posible participar, y liberar la IA.
Y solo se habla de los llms y de los modelos generativos. Pero algún día empezaremos a tener noticias sobre modelos aplicados a diagnóstico y tratamiento de enfermedades, u otros usos bestias de la IA, qué se van a ver potenciados por este boom
Hay que impulsar toda comunidad de software libre al respecto, si es posible participar, y liberar la IA.
Los hermanos Wright empezaron con una máquina que apenas volaba a 3 metros de altura en saltos de entre 30 y 90 metros sin direccion lateral… y solo 10 años más tarde tenemos los ases de la aviación de la primera guerra mundial.
Ahora estamos viendo lo mismo con la IA… y como entonces mucha gente no se lo tomó en serio.
Mas tecnología en manos de unos pocos, las empresas lo usarán para rebajar costes, a costa de un empleo que ya no se compensará con un crecimiento imposible.
Pero lo peor son los grandes problemas de seguridad, es cuestión de tiempo el que sea incontrolable.
El peligro no es Skynet, el peligro es un cambio en el mercado de trabajo, y en la economía en conjunto, demasiado brusco.
Las redes neuronales, que son el mismo tipo de IA que usa ChatGPT o DALL-E, se describieron de forma teórica en 1943 y se aplicó de forma práctica y exitosa en 1958:
en.wikipedia.org/wiki/Perceptron
Con un “simple” perceptron se pueden hacer cosas muy importantes, y los usamos en el día a día desde hace mucho tiempo sin darnos cuenta, por ejemplo entrando a un parking con la cámara que “lee” la matrícula o hablando con un contestador automático que toma decisiones “escuchando” tus respuestas.
Si hablamos de machine learning se empezó a desarrollar en los años 60, y por último el deep learning se empezó a desarrollar en los 70 y se popularizó en los 80:
en.wikipedia.org/wiki/Deep_learning
Lo único que ha pasado en los últimos años es que, gracias a la perfección de la técnica y el aumento exponencial del número de datos y la potencia de cálculo, han salido proyectos muy interesantes que generan predicciones realmente sorprendentes, tan buenas que parecen creaciones humanas. Pero de ahí a decir que la IA está en sus albores es no saber de lo que se habla.
Pero ha sido desde 2005 en adelante que la potencia de cálculo se ha disparado y permite hacer sencillamente en ordenadores de casa lo que antes haciamos de forma complicada en el Cry5 de la UPC con quotas de uso limitado.
Con las IAs lo único que vas a conseguir son churros como Visual Basic y sus chorriprogramas pero en la era de Internet. Fuente de vulnerabilidades y futuros ataques por ahorrarse unas perras.
De hecho con el lenguaje Common LIsp escribirte un chatbot que reconozca algo el lenguaje o una calculadora que simplifique ecuaciones y expresones está tirado, forma parte de un libro relacionado sobre inteligencia artificial y CL, cualquier bachiller lo acabaría sin problema.
Es un poco frustrante que Musk y Altman firmen todas estas cosas, y la gente sólo se quede con que las han firmado ellos (que sí, no me cabe duda de que lo hacen por puro interés) y no con todas las otras firmas que también muestran su preocupación por el tema.
Como bien dices, no solo se trata de grandes empresas, hay muchos científicos y expertos que van en esa línea.
Hay opiniones para todos los gustos.
Por otro lado me parece muy pertinente el ejemplo de #7, de que lo que vemos hoy en día no tiene nada que ver con lo que veremos en una o dos décadas y que la sociedad no está del todo preparada para ello.
Fueron los, supuestamente, primeros que volaron con una máquina motorizada... y "supuestamente" porque algunos dicen que fué Santos-Dumont...
Y como dice #11 hace décadas que existe la IA... incluso la implementación de las IA...
Vaya falacia de falsa equivalencia "Es lo mismo una IA que una bomba atómica".
De un día para otro se pudo cocinar los alimentos. Los hombres de verdad los toman crudos.
Cualquier uso pernicioso ya debería estar recogido en la legislación. Como generar información falsa, discriminar personas, la privacidad de los datos personales...
One day a student came to David Moon and said: “I understand how to make a better garbage collector. We must keep a reference count of the pointers to each cons.”
Moon patiently told the student the following story:
“One day a student came to Moon and said: ‘I understand how to make a better garbage collector...
Va a haber mucho más paro por el aumento de la productividad bestial.
dle.rae.es/herramienta
En la IA no estamos dando los primeros saltos ni muchísimo menos, si tenemos que compararlo con la aeronáutica ahora mismo estariamos en la década del boom de la aviación comercial en los 70 u 80, con la popularización de los primeros modelos de aviones comerciales modernos como el primer 737 y con el desarrollo de tecnología punta como el Concorde.
Los primeros saltos de la IA es lo que he comentado en #11 con algunos ejemplos simples y que usamos a diario. Ahora mismo estamos en pleno boom de la IA, y lo que veremos a partir de ahora es la maduración de la tecnología. El salto tecnológico de un hélice biplano a un avion comercial a reacción ya lo hemos dado.
Y en ningún momento he dicho que se use un solo perceptron, relee mi comentario, estoy hablando de tecnologías y me refiero al perceptron como ello.
la licencia "open source":
To maintain integrity and prevent misuse, we are releasing our model under a <u>noncommercial license </u>focused on research use cases. Access to the model will be granted on a case-by-case basis to academic researchers; those affiliated with organizations in government, civil society, and academia; and industry research laboratories around the world. People interested in applying for access can find the link to the application in our research paper.
No era realmente IA, no se adaptaba, solo era poco más que un árbol de decisiones... pero parecía bastante listo, acertaba más que la mayoría de los médicos de familia pero menos que los especialistas.
Hablamos de impactos mucho más rotundos.
si era hace 25 años, usaban una SVM y no una red neuronal, pero da igual, aunque a simple vista no lo pueda parecer, el problema que describes es infinitamente menos complejo que reconocer un dígito en una imagen o escribir una frase de 10 palabras que suene coherente. El error de base es pensar que lo que es difícil para los humanos lo es para una máquina y al revés. El salto que se ha dado la última década ha sido exponencial.
También conocidos como gigabytes
Los dueños siempre preferirán tener 10 trabajadores y facturar 10 millones que tener 1.000 trabajadores y facturar 1.000 millones (donde casi todo se va a pagar sueldos).
Sam Altman: “Con la IA habrá empresas de 1.000 millones de dólares llevadas por una sola persona”
Ciertamente esto provocará el fin del capitalismo tal y como lo conocemos, porque tanta gente en el paro querrá comer si o si .
Que tiempos el sotano del A2... y la puerta secreta que no ví que existía hasta que jugué a la versión del Wolfstein 3D ambientada en el campus nord!
Yo salí de allí en el 94.