"Nuestra misión es asegurar que la Inteligencia Artificial General -sistemas de IA que son generalmente más inteligentes que los humanos- beneficien a toda la humanidad." "Una Súperinteligencia Artificial desalineada podría causar penosos daños al mundo." [ ref: Inteligencia Artificial Fuerte o General:
es.wikipedia.org/wiki/Inteligencia_artificial_fuerte ]
old.meneame.net/m/actualidad/chatgpt-ha-alcanzado-nivel-nino-9-anos-de
Bing: “No te haré daño a menos que tú me hagas daño primero”[ENG]
old.meneame.net/story/bing-no-hare-dano-menos-tu-hagas-dano-primero-en
...tic tac...
Hay que reconocer que es positivo que OpenAI reconozca que los riesgos podrían ser reales, y que por tanto deben ser considerados seriamente. Eso no garantiza nada, ya que los incentivos económicos y geopolíticos pueden seguir yendo en nuestra contra, pero al menos es mejor que si el cambio fuese liderado por negacionistas.
Por cierto, falta ENG en el titular.
Pero me gustaría un robotito así para cuando tenga 80 tacos (y para mañana, tb).
De BING... En modo bueno.
Aumenta la eficiencia y disminuye el error humano.
Agiliza la toma de decisiones al analizar miles de datos en minutos.
Libera a las personas de tareas rutinarias y repetitivas y potencia las tareas creativas.
Permite resolver problemas complejos que superan la capacidad humana.
Mejora la calidad de vida y el bienestar de las personas al ofrecer servicios personalizados y asistencia.
AGI puede tener diferentes significados según el contexto. Por ejemplo: • En el ámbito de la inteligencia artificial, AGI significa inteligencia artificial general y se refiere a un sistema de software capaz de realizar cualquier tarea cognitiva que pueda hacer un humano. • En el ámbito de los impuestos, AGI significa ingreso bruto ajustado y se refiere al monto que se obtiene al restar ciertas deducciones al ingreso bruto o total del año. Este monto se usa para calcular el impuesto a pagar al Estado. ¿A cuál de estos significados te refieres?
el de inteligencia artificial desarróllamelo
La inteligencia artificial general (AGI) es una forma teórica de inteligencia artificial que iguala o excede la inteligencia humana promedio. Es decir, un sistema AGI podría realizar con éxito cualquier tarea intelectual de cualquier ser humano, como razonar, aprender, planificar, comunicarse y crear. Un sistema AGI tendría conciencia de sí mismo y podría escribir su propio programa. La inteligencia artificial general se diferencia de la inteligencia artificial débil o específica, que es la que se usa actualmente para resolver problemas concretos y limitados, como reconocer imágenes, traducir textos o jugar ajedrez. La inteligencia artificial débil no tiene capacidad de generalizar ni de adaptarse a situaciones nuevas La inteligencia artificial general es un objetivo muy ambicioso y aún no se ha logrado. Algunos expertos creen que es posible alcanzarlo en este siglo, mientras que otros lo consideran imposible o muy lejano. Los desafíos técnicos y éticos son enormes
Los enlaces he tenido que borrarlos para poderlo subir aquí.
youtu.be/7PKx3kS7f4A
- OpenAI considera que la tecnología que tienen ahora NO es AGI (por eso fraes como "If AGI is successfully created,[...]".
- OpenAI es una empresa privada al fin y al cabo, por mucho open que lleven en el nombre. Todo lo que digan respecto a su posición moral puede y va a cambiar de la noche a la mañana según mande don dinero. De hecho, ese cambio ya se ha producido una vez. En la 2a footnote dicen (traduzco parafraseando un poco):
> Cuando empezamos OpenAI no sabíamos que la escala [de los modelos] iba a ser tan importante. Al descubrirlo, entendimos que no íbamos a poder financiar el coste de entrenar modelos tan grandes así que nos reconvertimos de organización sin ánimo de lucro en empresa privada.
> Otro ejemplo: ahora creemos que estábamos equivocados al pensar que debíamos publicarlo todo. Por consiguiente, hemos pivotado a pensar que debemos encontrar la forma de compartir los beneficios de los sistemas que creamos con la sociedad de forma segura.
Otro jeje:
¿Qué pasará cuando una IA nos permita pensar despacio, profundizando en cada cosa, pero de manera rápida y sin esfuerzo?
Esto va a ser disruptivo de OO.
Esta gente en lo que es experta (además de en IA) es en marketing.
Se trata de modelos gigantescos de generación de lenguaje, pero por detrás de ese encadenamiento de palabras basado en patrones probabilísticos (posiblemente modelos ocultos de Markov), no hay absolutamente nada.
No hay razonamiento, no hay imaginación, no hay consciencia.
Otra cosa es que, cual ilusionista, nos haga creer que piensa, que razona, que imagina y que es consciente.
Pero eso es sólo un trampantojo, no es real.
Una vez aclarado todo esto, me parece muy loable que OpenAI establezca unos buenos principios, sólidos, éticos y claros, para que sus proyectos hacia una verdadera IA fuerte no dejen en segundo plano estas preocupaciones.
No dudo que llegaremos a ese punto, pero aún nos faltan unos añitos, aunque es imposible predecir cuántos.
De todas formas, esto está visto desde un punto de vista de desarrollador y no desde un punto de vista que la IA desarrollase su propio código y se adaptase.
No habria alguna forma de programar a la IA para que tuviera el código ético "medio" de la humanidad en cada momento?
Claro que lo sabe, ellos y todo el mundo que tenga un mínimo criterio, pero para engañar a inversores, la treta de nombrar la palabra "AGI" es muy buena dado el contexto... insinúas cosas que después nadie te puede echar en cara porque tú realmente no estabas afirmando que fueras a conseguir nada. Y saben cubrirse las espaldas: of course our current progress could hit a wall...
Recomiendo su canal, Robert Miles, www.youtube.com/@RobertMilesAI
El tema de la IA desarrollando su propio codigo lo toca en alguno de sus otros videos.
Si ves lo que hace GPT, es un nivel mucho más elevado que unas dendritas procesando señales de entrada. Es MUCHO más.
Y eso se consigue elevando el número de capas y las conexiones, y entrenando adecuadamente.
Si vas avanzando por ese camino, me puedes decir dónde estará la diferencia con un cerebro humano? Dónde está nuestra conciencia si no en el montón de capas y conexiones y pesos bien ajustados mediante entrenamiento?
Acaso lo nuestro es magia? Alma?
Solamente se trata de aumentar los circuitos y de establecer un bucle de prueba error que aumente la "satisfacción" del circuito. En los humanos es la aprobación de los padres, no dolor, el placer de la comida, de las imágenes placenteras, temperatura, sexo, sabores, poder, que las cosas sean como nos gustan, etc, etc, etc
Se trata de plantearse qué limites o controles hay de acordar para que no suceda una desgracia.
Por cierto recomiendo este libro sobre el tema: Superinteligencia, de nick bostrom..
Si te das cuenta el problema está mayormente en lo que nosotros definimos como ético o no. No lo hemos decidido.
Y que las reglas de un parrafo cada una están pensadas para escribir libros, no programar IA porque ni siquiera existian los ordenadores.
Pero desde luego programaremos reglas de control para garantizar la seguridad, lo hacemos en muchísimas de las maquinas que construimos y en muchisimo del software que programamos.
Las definiremos de otra manera, pero el concepto de reglas básicas de seguridad para que esto no se vaya de las manos, seguro que estará ahí.
No es un problema de las leyes de la robótica, que existiran de alguna manera, es un problema de como definirlas.
quiero decir, las escribio en 1942 y el ENIAC es de 1943. Sería raro que una definición inventada antes de la construcción del primer ordenador pudiera ser aplicada al software de 80 años después.
Pero el concepto de ley para preservar la seguridad y que la cosa no desmadre, sigue siendo válido.
cc #28
Por cierto, esa frase de Bing si lees el artículo demuestra que es realmente estúpido.
Y NO. Las IA no tienen la "inteligencia de un niño de 8 años".
Es muchísimo más que eso
Acaso lo nuestro es magia? Alma?
Algunos seres humanos tienen la curiosa manía de llamar "magia" a lo que ignoran.
Ni siquiera hemos conseguido que un IA pueda dirigir un coche de modo completamente autónomo. Una tarea trivial para un humano.
Claro que primero deberíamos definir que entendemos por "inteligencia", cosa que no es simple.
Entre otras cosas porque si lo diseñamos nosotros no es más que un resultado de nuestra propia inteligencia.
El universo siempre seguirá su curso.
Las guerras pueden ser "inteligentes" si obtienes beneficio de ellas.
Como lleva haciendo el hombre miles de años.
Pero lo dudo mucho.
Si lo dice una IA más inteligente que vosotros, será cierto... ¿no?
O nos quiere engañar ...
No hay ningún problema. Si la IA es inteligente lo podrá decidir por sí misma.
No te das golpes con las esquinas, salvo que vayas "a lo loco".
Con 8 años hay niños que hasta compiten conduciendo Karts y motos.
Si la conducción autónoma pudiese tener tolerancia a errores a estas alturas ya habría jubilado al 90% de camioneros.
Por eso los que hacéis analogías poniendo el ejemplo de la condución autómoma para decir que el potencial de las IA se verá limitado. No os estáis enterando de por donde van los tiros, la verdad.
Y el problema es que la AI tienen más errores que los admisibles. Muchos más errores que un humano, porque tiene muchas más carencias que un humano.
Si las IA no han jubilado a los camioneros es porque NO son capaces de hacer el trabajo de los camioneros. Así de simple.
Y no es ninguna "analogía". Es una muestra del nivel de desarrollo que tienen hoy en día las IA. Muy lejos de una AGI.
Lo digo porque repetimos como loros demasiadas veces de ejemplo de la conducción autónoma sin entender demasiado bien el contexto. El problema de la conducción autónoma no es tanto su dificultad como su poca tolerancia a errores.
En serio pagaría lo que fuese para ver la cara que pondréis cuando dentro de 10 años se os enseñe lo mal que han envejecido comentarios como el tuyo.
Hablamos de una "inteligencia que iguale o supere la inteligencia humana".
Y eso es un error. Es un objetivo del que estamos muy muy muy muy lejos y que personalmente dudo que sea posible.
Una IA hecha por el ser humano siempre será un reflejo distorsionado de la inteligencia humana porque está ideada y diseñada por la inteligencia humana.
Te manda a la mierda y dice que prefiere irse a jugar al fútbol. Lo cual es un signo de inteligencia.
Tienes un concepto de "inteligencia" un tanto extraño. Como si el mezclar cosas que se leen por internet y redactarlas de un modo medio coherente demostrara inteligencia.....
Bueno, es lo que hacemos hoy en día, no ???
Cuanto menos inteligentemente actuemos, más "inteligentes" nos parecerán las AI.
En 10 años no veremos nada que se parezca a una AGI ni de lejos.
La "ética" es una construcción social. Los humanos somos seres sociales.
Por un lado creo que por un lado te basas en hipótesis intangibles como que el ser humano tiene un "ingrediente" secreto que desconocemos y que es lo que lo hace ser tan inteligente y por otro lado, me parece que no eres consciente del ritmo al que está evolucionando toda esta tecnología que hace 5 años apenas era capaz de escribir una frase con un mínimo de coherencia. En mi opinión no es así, estoy convencido el vamos por el camino correcto y no pararemos de ver avances cada vez más espectaculares e impresionantes en los próximos años que dejarán a los defensores de la "excepcionalidad" del ser humano con cada vez menos argumentos. Puede que los LLM tengan la limitación de que todo el conocimiento que construyen lo hacen a partir de texto y no sea suficiente, pero cuando se le añadan a los modelos más potentes la capacidad de entender, imágenes y videos nos acercaremos mucho a lo que es una AGI.
Respecto a la conciencia, que siempre se mezcla en este debate mucha gente no entiende la diferencia entre conciencia e inteligencia. Me parece que todavía estamos muy lejos.
Yo no he dicho que "no saben conducir". He dicho que no saben hacerlo de modo autónomo del mismo modo que un humano.
Y se lleva mucho intentándolo
Los "campos" son TODOS.
Que no conocemos el funcionamiento de la inteligencia humana es un hecho. Avanzamos algo, pero estamos lejísimos de comprender cómo funciona ni siquiera un acto reflejo.
La parte "mágica" es aportación tuya. Desconocer el funcionamiento de algo no lo convierte en "magia".
Exolícame tu la diferencia y la no relación entre conciencia e inteligencia.
Intenta siquiera definirlas de modo completo.
Y estos de OpenIA van por el mismo camino, el de vender humo. Que oye, está bien, su producto es útil, pero no nos confundamos que después acabamos comprando todo lo que quieran vendernos.
En serio?
Lo dudo mucho. La inteligencia no funciona secuencialmente como un programa
No conozco lo suficiente ninguno de los dos campos, así que sólo puedo opinar superficialmente.
A nivel filosófico se han planteado las dos alternativas, que el lenguaje deriva del pensamiento y que el pensamiento deriva del lenguaje.
Creo que a día de hoy se acepta más la primera opción (primero es el pensamiento y de ahí deriva el lenguaje), pero si alguien sabe más, estaré encantado de leerlo.
A nivel neurológico aún no conocemos todos los mecanismos del cerebro, así que no podemos asegurar que funcione como una red neuronal no supervisada con refuerzo.
Lo que está claro es que los humanos tenemos la capacidad de imaginar, razonar de manera inductiva y deductiva* y tenemos una consciencia verdadera de nuestra propia existencia.
Y por favor no entremos en el debate de si no somos más que una simulación. Eso no nos lleva a ninguna parte, como ya dijo Descartes.
Tampoco hablo de alma, espíritu ni ninguna otra cosa esotérica. Soy ateo y realmente pienso que todas nuestras capacidades intelectuales están en el cerebro. Lo único es que es mucho más complejo que una red neuronal por muy grande que ésta sea.
---
* Intenta aplicar razonamiento deductivo con ChatGPT. Es la prueba más clara de que no piensa realmente, sólo encadena las respuestas más probables.
No se si en 10 años tendremos una AGI, lo que si se es que la IA habrá cambiado nuestras vidas radicalmente en todos los aspectos. Trabajo, ocio, forma de interactuar con el mundo... Por eso digo que sonará ridículo quienes dicen que no es para tanto y que un niño siempre será más inteligente.
BLIP-2, para hablarte con otra que ya las hay, para pintarte o dibujarte con Stable Diffusion u otra y asi sucesivamente, tambien las hay para jugar a ajedrez, todo en un mismo entorno donde no distingiras mas que la matriz. Y eso esta al caer si no esta hecho ya y nos lo estan dosificando.
*intentando decir lo mismo que tu con otras palabras
Por lo tanto si. Si es inteligente tendrá su propia concepción de lo que es "bueno" y lo que es "malo".
Eso aumenta la utilidad de la herramienta, pero en ningún modo va a ser más "inteligente".
Para eso se necesita una integración mucho mayor de lo que da una simple API.
Depende del nivel en el que midas esas relaciones y a qué le llames "relación interesante".
Una AGI debería ser capaz de hace uso constante de todo su conocimiento en todas las áreas para cualquier tarea y de modo totalmente autónomo. Y por supuesto debería ser capaz de hacer y hacer tareas para las que no las hemos ni preparado ni entrenado, debería hacerlo ella por sí misma por voluntad propia...
Por ejemplo, debería tener "voluntad" sin necesidad de que se la implantáramos en su código.
En todo caso es un proceso de aprendizaje y de contraste de experiencias y capacitación de acumularlas y sincronizarlas. No le des tanta importancia.
En el pasado trabajé con modelos semánticos (ontologías), agentes inteligentes y reconocimiento de voz y por eso reconozco esto como un gran logro, pero también soy muy consciente de sus limitaciones y su alcance.