Tecnología, Internet y juegos
155 meneos
2178 clics
Los gigantes tecnológicos no están listos para el próximo capítulo en I.A

Los gigantes tecnológicos no están listos para el próximo capítulo en I.A

La comunidad de programadores de código abierto ha puesto manos a la obra para modificar y mejorar modelos de lenguaje similares a ChatGPT. Esto puede tener efectos enormes, para bien y para mal, en el desarrollo de la inteligencia artificial.

| etiquetas: inteligencia artificial , chatgpt , programación , código abierto
72 83 0 K 269
72 83 0 K 269
Comentarios destacados:                  
#5 Yo visto el comunicado ese de una frase firmado por las grandes compañías para meter miedo hablando de "riesgo de extinción", tengo más claro que nunca que lo que hay que hacer es quitárselo de las manos. No se puede dejar en manos de cuatro empresas esta tecnología, ni que decidan lo que se permita y no se permita hacer, que es lo que les gustaría.

Hay que impulsar toda comunidad de software libre al respecto, si es posible participar, y liberar la IA.
«12
  1. Esto pinta bien... pero puede salir muy mal. Creo que en los albores de la fisión nuclear debieron de sentirse igual que ahora.
  2. #1 ¿? En cuanto vieron que era teóricamente posible, se pusieron a crear la bomba.
  3. #1 yo solo veo oportunidades de hacer cosas increíbles.

    Y solo se habla de los llms y de los modelos generativos. Pero algún día empezaremos a tener noticias sobre modelos aplicados a diagnóstico y tratamiento de enfermedades, u otros usos bestias de la IA, qué se van a ver potenciados por este boom
  4. #3 Ese dia ya ha llegado. Todas las semanas vemos algo en esa direccion. Desde vacunas mucho mas efectivas a personas que han vuelto a poder caminar gracias a la AI. Estamos ante una nueva revolucion tecnologica.
  5. Yo visto el comunicado ese de una frase firmado por las grandes compañías para meter miedo hablando de "riesgo de extinción", tengo más claro que nunca que lo que hay que hacer es quitárselo de las manos. No se puede dejar en manos de cuatro empresas esta tecnología, ni que decidan lo que se permita y no se permita hacer, que es lo que les gustaría.

    Hay que impulsar toda comunidad de software libre al respecto, si es posible participar, y liberar la IA.
  6. #4 ojalá, pero yo creo que falta todavía un poquito para que haya modelos realmente disruptivos. Pero lo veremos, pronto.
  7. Yo lo veo como las máquinas voladoras más pesadas que el aire.

    Los hermanos Wright empezaron con una máquina que apenas volaba a 3 metros de altura en saltos de entre 30 y 90 metros sin direccion lateral… y solo 10 años más tarde tenemos los ases de la aviación de la primera guerra mundial.

    Ahora estamos viendo lo mismo con la IA… y como entonces mucha gente no se lo tomó en serio.
  8. Las ventajas no superan ni de lejos los problemas que va a traer esto.

    Mas tecnología en manos de unos pocos, las empresas lo usarán para rebajar costes, a costa de un empleo que ya no se compensará con un crecimiento imposible.

    Pero lo peor son los grandes problemas de seguridad, es cuestión de tiempo el que sea incontrolable.
  9. #5 Y si se crean IA que hacen innecesarios miles y miles de puestos de trabajo pues se les paga un subsidio a cuenta de nuestros impuestos y listo. O que se mueran de hambre mejor. Que no hubieran estudiado diseño gráfico, traducción, programación, etc.

    El peligro no es Skynet, el peligro es un cambio en el mercado de trabajo, y en la economía en conjunto, demasiado brusco.
  10. #6 Creo que se trata de un cambio completo de paradigma, no de modelos. Como dice #4 esta tecnología en sí es disruptiva. ChatGPT y esa clase de modelos de lenguaje o de creación de imágenes son juguetitos sin apenas valor. Lo interesante del tema es la capacidad de "aprender" de manera automatizada. El conocimiento que a 1000 cientíticos les llevaría décadas, una buena IA te lo desarrolla en unos pocos días. Es una de esas ocasiones en las que los árboles no nos dejan ver el bosque.
  11. #7 nada más lejos de la realidad, la IA es una tecnología que tiene más de 80 años, y su uso lo tenemos incorporado en nuestro día a día desde hace fácilmente más de 20 años.

    Las redes neuronales, que son el mismo tipo de IA que usa ChatGPT o DALL-E, se describieron de forma teórica en 1943 y se aplicó de forma práctica y exitosa en 1958:

    en.wikipedia.org/wiki/Perceptron

    Con un “simple” perceptron se pueden hacer cosas muy importantes, y los usamos en el día a día desde hace mucho tiempo sin darnos cuenta, por ejemplo entrando a un parking con la cámara que “lee” la matrícula o hablando con un contestador automático que toma decisiones “escuchando” tus respuestas.

    Si hablamos de machine learning se empezó a desarrollar en los años 60, y por último el deep learning se empezó a desarrollar en los 70 y se popularizó en los 80:

    en.wikipedia.org/wiki/Deep_learning

    Lo único que ha pasado en los últimos años es que, gracias a la perfección de la técnica y el aumento exponencial del número de datos y la potencia de cálculo, han salido proyectos muy interesantes que generan predicciones realmente sorprendentes, tan buenas que parecen creaciones humanas. Pero de ahí a decir que la IA está en sus albores es no saber de lo que se habla.
  12. #11 yo programé un ordenador neuronal de IBM a mediados de los 90, y los gliders existían en el siglo XIX…

    Pero ha sido desde 2005 en adelante que la potencia de cálculo se ha disparado y permite hacer sencillamente en ordenadores de casa lo que antes haciamos de forma complicada en el Cry5 de la UPC con quotas de uso limitado.
  13. Va todo demasiado rápido, sin tiempo para asimilarlo e implementarlo. Tanto en este como en otros campos.
  14. #10 no sé dónde veces un cambio de paradigma, ni a qué llamas paradigma. Realmente el cambio que se está produciendo es de aplicación de nuevos modelos, y sobre todo de escala.
  15. #5 no son cuatro empresas, son personas, científicos, muchos padres fundadores de la disciplina
  16. #9 Los traductores deben revisar los resultados. Lo mismo en diseño y programación.
    Con las IAs lo único que vas a conseguir son churros como Visual Basic y sus chorriprogramas pero en la era de Internet. Fuente de vulnerabilidades y futuros ataques por ahorrarse unas perras.
  17. #15 Los fundadores? Me fío más de la gente de Scheme/Common Lisp que lleva 40 años y más en esto, que de los "padres fundadores".
    De hecho con el lenguaje Common LIsp escribirte un chatbot que reconozca algo el lenguaje o una calculadora que simplifique ecuaciones y expresones está tirado, forma parte de un libro relacionado sobre inteligencia artificial y CL, cualquier bachiller lo acabaría sin problema.
  18. #5 El comunicado al que haces referencia está firmado también por muchos académicos, y por gente como Geoff Hinton que dejó Google precisamente por sus preocupaciones al respecto.

    Es un poco frustrante que Musk y Altman firmen todas estas cosas, y la gente sólo se quede con que las han firmado ellos (que sí, no me cabe duda de que lo hacen por puro interés) y no con todas las otras firmas que también muestran su preocupación por el tema.
  19. #12 Common Lisp y sus gentes hacían virguerías (y siguen haciendo) gracias al propio LISP y su homoiconocidad. Y si lo juntas con Emacs ni te digo, como ajo y aceite.
  20. #3, pues suerte que los padres de la IA moderna como Geoffrey Hinton o Yoshua Bengio, lo ven como tú, ni siquiera el propio Sam Altman dice que el desarrollo de la IA esté exento de peligros. Creo que los LLM en pocos años pueden ser una herramienta demasiado poderosa en determinadas manos como para no empezar a pensar en mecanismos de control, lo contrario me parece de una miopía terrible.
  21. #5, independientemente de los intereses que puedan tener las grandes empresas, tu discurso me parece peligrosamente parecido al de los miembros de la Asociación Nacional del Rifle cuando se habla sobre el control de armas.
  22. #17 si, los fundadores. Stuart Russell, John J Hopfield, uno de los inventores de las redes neuronales. Entre otros.
  23. ¿Llegará el momento en el que sea una ley "no crearás máquinas a semejanza del hombre"?
  24. #15, los seres humanos somos románticos por naturaleza y tendemos siempre a buscar una cara oscura en la lucha de poder entre las fuerzas dominantes y poderosas y los rebeldes con menor potencial pero mejores intenciones. Como siempre, la realidad suele ser mucho más aburrida y evidente.

    Como bien dices, no solo se trata de grandes empresas, hay muchos científicos y expertos que van en esa línea.
  25. #2 Es que la humanidad tiene 2 motores, el animo de robarle los recursos a otro y el sexo, la bomba y todo el aparato militar vale para lo primero, pero otros muchos inventos como la fotografía, el cine o internet triunfaron gracias a lo segundo :troll:
  26. #2 lo primero fue crear la reacción controlada de fisión en un reactor experimental. Enrico Fermi.
  27. #21 la tecnología es solo una herramienta. Y no creo que se le puedan poner puertas al campo. Al contrario, creo que ya el genio ha salido de la lámpara. De poco valen las regulaciones.

    Hay opiniones para todos los gustos.
  28. #21, quería decir que no lo ven como tú.
  29. #28, exacto, igual que las armas, solo son una herramienta y eso no quita que en las manos equivocadas puedan ser muy peligrosas, por eso hay que regular su uso. No digo que la IA no tenga muchos aspectos maravillosos de cara al futuro, lo que digo es que hay que desarrollarla de forma controlada.
  30. #16 esas mismas vulnerabilidades y ataques lo puede prever justamente la IA... Para mí, dicho muy de manera simplificada, cualquier cosa que un humano podría hacer y tardar mucho tiempo la IA va a estar ahí. En mi opinión, claro.
  31. Malditas neveras, que va a ser de los vendedores de hielo
  32. #11, es cierto que las bases teóricas de la IA moderna se desarrollaron hace varias décadas. Pero no ha sido hasta la última década que los datos disponibles y la potencia de cálculo han permitido empezar a desarrollar modelos realmente interesantes. El ejemplo que pones de leer una matrícula, no lo hace un perceptrón sino cientos de ellos.

    Por otro lado me parece muy pertinente el ejemplo de #7, de que lo que vemos hoy en día no tiene nada que ver con lo que veremos en una o dos décadas y que la sociedad no está del todo preparada para ello.
  33. #27 No, lo primero fue crear el Proyecto Manhattan para crear la bomba, ese reactor y ese experimento son parte de ese proyecto. es.wikipedia.org/wiki/Chicago_Pile-1
  34. #31 Primero va a estar el dinero antes que la seguridad.
  35. #9 El mercado de trabajo es un medio para conseguir un fin, la generación de recursos, no un fin en sí mismo. Si los recursos se generan igual el problema no es del mecanismo que los genera; si el sistema económico no es capaz de adaptarse a la nueva realidad, a lo mejor lo que hay que cambiar es el modelo económico.
  36. #23 Como digo la gente que estuvo en LISP estuvo tanto o más implicada que los fundadores, sobre todo los de Common Lisp.
  37. #7 Los hermanos Wright... como si ellos fueran los primeros que volaron con máquinas más pesadas que el aire... ya hacía décadas que se volaba...

    Fueron los, supuestamente, primeros que volaron con una máquina motorizada... y "supuestamente" porque algunos dicen que fué Santos-Dumont...

    Y como dice #11 hace décadas que existe la IA... incluso la implementación de las IA...
  38. #9 Lo acojonante es que estamos alcanzando algo que parecía utópico, que las máquinas puedan trabajar por nosotros, y en lugar de alegrarnos tenemos que ir con miedo. El problema no es la IA, el problema es el sistema.
  39. #21 a altman lo que le da miedo es que vengan ahora otras desarrollos y le roben su queso, por eso pedia regulacion
  40. #38 si, deben estar por ahí entre los firmantes, como "la gente que estuvo en lisp"
  41. #30 "Las armas son herramientas". Pues no me pondría yo a clavar clavos con una escopeta, la verdad.
    Vaya falacia de falsa equivalencia "Es lo mismo una IA que una bomba atómica".
  42. #9 tienes razón, ojala nunca hubieran descubierto el fuego, fue un cambio demasiado brusco.
    De un día para otro se pudo cocinar los alimentos. Los hombres de verdad los toman crudos.
  43. #30 me parece tan absurdo como regular los compiladores de c++.

    Cualquier uso pernicioso ya debería estar recogido en la legislación. Como generar información falsa, discriminar personas, la privacidad de los datos personales...
  44. #34 yo también creo que son peticiones oportunistas. Y que las regulaciones pueden limitar precisamente las iniciativas de código abierto o de pequeñas empresas. Las grandes tienen toneladas de abogados para justificar todo lo que hacen.
  45. #22 Ala, otra falacia de falsa equivalencia...
  46. #24 Suena más a religión que a ley.
  47. #44 Sí, se desmoronó el capitalismo, con lo sólido que dijeron que era el FMI y el foro de Davos
  48. #17, hostia, me has hecho acordarme de los koans de la IA xD

    One day a student came to David Moon and said: “I understand how to make a better garbage collector. We must keep a reference count of the pointers to each cons.”

    Moon patiently told the student the following story:

    “One day a student came to Moon and said: ‘I understand how to make a better garbage collector...
  49. #41, sí, pero los dos primeros no. Son reputados académicos y Hinton incluso dejó su puesto en Google para poder lanzar críticas libremente.
  50. #40 Claro. Lo peligroso es la combinación de la IA con el capitalismo. El aumento de la productividad lleva a que los trabajadores en paro se mueran de hambre, a que se les mantenga con subsidios, o a un neocomunismo en el que simplemente todos los beneficios de la IA y la robótica sean para todos.
  51. #37 Exacto
  52. #48 Sí. La biblia católica naranja.
  53. #16 Creo que estás sobreestimando a los humanos. {0x1f602} Nadie dice que no hagan falta programados o traductores pero harán falta muchos menos, y esto pasará en muchísimos campos, eso son solo los ejemplos que se me han ocurrido como más obvios.

    Va a haber mucho más paro por el aumento de la productividad bestial.
  54. #43, entonces es que no te conoces demasiado bien el significado de la palabra herramienta. Un diccionario también es un herramienta y no está pensado para poner clavos.

    dle.rae.es/herramienta
  55. Estamos hablando de su es bueno o malo como si pudiéramos controlarlo, y no. Es como el cambio climático: no podemos controlarlo. No porque no dependa de nosotros, sino porque no podemos controlarnos a nosotros mismos.
  56. #16 Parece que algunos pensáis que esto de la IA se va a estancar en lo que hay ahora y ya. Que nunca jamás se va a sobrepasar las limitaciones de ahora y que por siempre harán falta seres humanos.
  57. #56 En serio, lee lo que es la falacia de falsa equivalencia porque no me creo que me contestes con otra vez la misma falacia.
  58. #35 Cronológicamente hablando, el reactor vino primero.
  59. #33 el problema de la analogía que ha hecho #7 es que está comparando puntos diferentes del desarrollo de ambas tecnologías.

    En la IA no estamos dando los primeros saltos ni muchísimo menos, si tenemos que compararlo con la aeronáutica ahora mismo estariamos en la década del boom de la aviación comercial en los 70 u 80, con la popularización de los primeros modelos de aviones comerciales modernos como el primer 737 y con el desarrollo de tecnología punta como el Concorde.

    Los primeros saltos de la IA es lo que he comentado en #11 con algunos ejemplos simples y que usamos a diario. Ahora mismo estamos en pleno boom de la IA, y lo que veremos a partir de ahora es la maduración de la tecnología. El salto tecnológico de un hélice biplano a un avion comercial a reacción ya lo hemos dado.

    Y en ningún momento he dicho que se use un solo perceptron, relee mi comentario, estoy hablando de tecnologías y me refiero al perceptron como ello.
  60. ai.facebook.com/blog/large-language-model-llama-meta-ai/
    la licencia "open source":
    To maintain integrity and prevent misuse, we are releasing our model under a <u>noncommercial license </u>focused on research use cases. Access to the model will be granted on a case-by-case basis to academic researchers; those affiliated with organizations in government, civil society, and academia; and industry research laboratories around the world. People interested in applying for access can find the link to the application in our research paper.
  61. #61, creo que el problema es que los ritmos de desarrollo han sido muy distintos en ambos casos, por eso hacer cualquier analogía es complicado. La aviación se desarrolló a un ritmo constante durante las primeras décadas después de su invención. No así la IA que ha vivido un invierno de varias décadas. Por eso creo que ambos tenéis parte de razón.
  62. #30 define de forma controlada. Porque si se trata de perseguir a los modelos open source creo que estamos yendo precisamente en la dirección contraria de cómo se deberían hacer las cosas.
  63. #64, pues no lo tengo claro, la verdad
  64. #9 Cierto pero... Estos cambios sociales solo perjudican a los de abajo, los proletarios y a los dirigentes (dirigentes totalmente irrelevantes). A la empresa y sobre todo al Gran Capital esta revolución social les beneficia radicalmente. Los permitirá bajar los costes en personal a medio plazo al 90%, y siendo el capital quien controlan el sistema, no hay manera de pararlo.
  65. #15 Científicos a sueldo de 4 empresas.
  66. #16 Cualquiera de nosotros puede ejecutar un sistema GPT o LlaMa en su ordenador con GPT4All (gpt4all.io/index.html). Hay decenas de modelos de lenguajes disponibles y instalarlo es mas fácil que instalar el MS Office. Lo que pueden hacer las empresas con ordenadores de 100 millones de €, o nosotros cuando salgan las IA que corran sobre GPU (en lugar de CPU) es puramente magia.
  67. #1 #2 Incluso ese ejemplo tiene su lado positivo, si la amenaza de una guerra nuclear como poco es discutible que seguramente no viviriamos una paz de fachadas como la que tenemos ahora.
  68. #3 Uno de los primeros proyectos de Inteligencia Artificial (o su precursor, los sistemas expertos) fue el Mycin, para diagnosticar enfermedades. Hace décadas, en los 70 u 80.

    No era realmente IA, no se adaptaba, solo era poco más que un árbol de decisiones... pero parecía bastante listo, acertaba más que la mayoría de los médicos de familia pero menos que los especialistas.
  69. #70 lo sé. Pero las capacidades de los sistenas expertos eran muy limitados. Esa línea de inferencia basada en proposiciones lógicas era una vía muerta.

    Hablamos de impactos mucho más rotundos.
  70. #5 El problema del software libre es que alguien podría cambiar la constante "MatarATodosLosHumanos" de false a true, y acabamos con un Bender Rodríguez.
  71. #33 Más tiempo, en la AEAT hace 25 años ya estaban usando una red neuronal para cazar defraudadores, y funcionaba muy bien (el aprendizaje tardaba 2 meses en un maquinón de 80 procesadores).
  72. #60 ¿Primero que qué? ¿Qué la idea de fabricar una bomba de fisión? ¿Qué el proyecto de crear dicha bomba?
  73. #74, me apostaría cualquier cosa a que
    si era hace 25 años, usaban una SVM y no una red neuronal, pero da igual, aunque a simple vista no lo pueda parecer, el problema que describes es infinitamente menos complejo que reconocer un dígito en una imagen o escribir una frase de 10 palabras que suene coherente. El error de base es pensar que lo que es difícil para los humanos lo es para una máquina y al revés. El salto que se ha dado la última década ha sido exponencial.
  74. se basan en conjuntos de datos masivos, medidos en decenas de miles de millones de bytes
    También conocidos como gigabytes xD
  75. Los políticos creerán que es crear un carnet o permiso para poder desarrollar en IA y que habrá un grupo de expertos revisando los trabajos si son peligrosos o no. Políticos felices por crear un nuevo impuesto y un chiringuito para recibir dinero fácil. Si llega a suceder eso, yo como desarrollador simplemente evito usar los términos de inteligencia artificial, aprendizaje de máquinas, etc.. y sigo trabajando en el tema, nadie podrá acusarme de trabajar en IA: ¿Yo trabajo en IA? Para nada, lo mío es matemática y estadística avanzadas.
  76. #75 La idea era comprobar que éramos capaces de controlar una reacción de fisión usando Cadmio. En definitiva, saber más sobre dicho proceso.
  77. Por otro lado, regular la IA con el clima geopolítico actual es una pérdida de tiempo. ¿Creen que desarrolladores, ingenieros y científicos rusos, chinos, iraníes, etc van a seguir las regulaciones emanadas de Europa o USA? Ni de coña, se limpiarán el trasero con eso, y USA no se dejará enlentecer por regulaciones sabiendo que sus enemigos trabajan sin limitaciones.
  78. #66 Pienso que te equivocas. Si mejora la productividad de un sector, o de todos pero de forma moderada pues bien, pero si es una mejora global drástica entonces no hay manera de encajarlo en el capitalismo. El capitalismo no solo necesita producir, también necesita que alguien consuma aquello que se produce. Necesita clientes con una nómina. Si de pronto produces lo mismo con un 20% de la plantilla, el paro sube al 80% y a ver quién consume.
  79. #5 lo que están pidiendo google y amigos es lko contrario "regulaciones por el peligro" para mantener su monopolio
  80. #11 bueno el perceptron y los transformers es como comparar un triciclo y un ferrari
  81. #84 claro, exactamente igual que comparar un avion biplano de hélice de la primera guerra mundial con un Boing 737
  82. #10 Igual te has flipado un poco con el bosque que imaginas ver.
  83. #13 No te preocupes abuelo, la cámara de fotos no te roba el alma.
  84. #21 No lo has entendido, no hay posibilidad de control por la baja/barata tecnología que se requiere para su explotación/desarrollo.
  85. #32 El año pasado los vendedores de hielo hicieron su agosto ....
  86. #40 ¿Eres un viajero del tiempo y comentas desde la epoca de los albores de la revolución industrial?
  87. #82 Ciertamente estamos en un punto de inflexión en la historia de la humanidad.

    Los dueños siempre preferirán tener 10 trabajadores y facturar 10 millones que tener 1.000 trabajadores y facturar 1.000 millones (donde casi todo se va a pagar sueldos).

    Sam Altman: “Con la IA habrá empresas de 1.000 millones de dólares llevadas por una sola persona”

    Ciertamente esto provocará el fin del capitalismo tal y como lo conocemos, porque tanta gente en el paro querrá comer si o si .
  88. #77 Yo lo usaba, no lo deletreaba... y fue hace unos 30 años. :-S
  89. #69 ¿Paz de fachadas? :-D
  90. #93 Creo que en esa época yo también... pero hace 6 lustros...

    Que tiempos el sotano del A2... y la puerta secreta que no ví que existía hasta que jugué a la versión del Wolfstein 3D ambientada en el campus nord! :-D
  91. #96 mmm... nop.

    Yo salí de allí en el 94.
  92. #98 Seguro! :-D
«12
comentarios cerrados

menéame