"Nuestra misión es asegurar que la Inteligencia Artificial General -sistemas de IA que son generalmente más inteligentes que los humanos- beneficien a toda la humanidad." "Una Súperinteligencia Artificial desalineada podría causar penosos daños al mundo." [ ref: Inteligencia Artificial Fuerte o General:
es.wikipedia.org/wiki/Inteligencia_artificial_fuerte ]
Por cierto, falta ENG en el titular.
- OpenAI considera que la tecnología que tienen ahora NO es AGI (por eso fraes como "If AGI is successfully created,[...]".
- OpenAI es una empresa privada al fin y al cabo, por mucho open que lleven en el nombre. Todo lo que digan respecto a su posición moral puede y va a cambiar de la noche a la mañana según mande don dinero. De hecho, ese cambio ya se ha producido una vez. En la 2a footnote dicen (traduzco parafraseando un poco):
> Cuando empezamos OpenAI no sabíamos que la escala [de los modelos] iba a ser tan importante. Al descubrirlo, entendimos que no íbamos a poder financiar el coste de entrenar modelos tan grandes así que nos reconvertimos de organización sin ánimo de lucro en empresa privada.
> Otro ejemplo: ahora creemos que estábamos equivocados al pensar que debíamos publicarlo todo. Por consiguiente, hemos pivotado a pensar que debemos encontrar la forma de compartir los beneficios de los sistemas que creamos con la sociedad de forma segura.
Hay que reconocer que es positivo que OpenAI reconozca que los riesgos podrían ser reales, y que por tanto deben ser considerados seriamente. Eso no garantiza nada, ya que los incentivos económicos y geopolíticos pueden seguir yendo en nuestra contra, pero al menos es mejor que si el cambio fuese liderado por negacionistas.
Se trata de modelos gigantescos de generación de lenguaje, pero por detrás de ese encadenamiento de palabras basado en patrones probabilísticos (posiblemente modelos ocultos de Markov), no hay absolutamente nada.
No hay razonamiento, no hay imaginación, no hay consciencia.
Otra cosa es que, cual ilusionista, nos haga creer que piensa, que razona, que imagina y que es consciente.
Pero eso es sólo un trampantojo, no es real.
Una vez aclarado todo esto, me parece muy loable que OpenAI establezca unos buenos principios, sólidos, éticos y claros, para que sus proyectos hacia una verdadera IA fuerte no dejen en segundo plano estas preocupaciones.
No dudo que llegaremos a ese punto, pero aún nos faltan unos añitos, aunque es imposible predecir cuántos.
old.meneame.net/m/actualidad/chatgpt-ha-alcanzado-nivel-nino-9-anos-de
Bing: “No te haré daño a menos que tú me hagas daño primero”[ENG]
old.meneame.net/story/bing-no-hare-dano-menos-tu-hagas-dano-primero-en
...tic tac...
Si ves lo que hace GPT, es un nivel mucho más elevado que unas dendritas procesando señales de entrada. Es MUCHO más.
Y eso se consigue elevando el número de capas y las conexiones, y entrenando adecuadamente.
Si vas avanzando por ese camino, me puedes decir dónde estará la diferencia con un cerebro humano? Dónde está nuestra conciencia si no en el montón de capas y conexiones y pesos bien ajustados mediante entrenamiento?
Acaso lo nuestro es magia? Alma?
Solamente se trata de aumentar los circuitos y de establecer un bucle de prueba error que aumente la "satisfacción" del circuito. En los humanos es la aprobación de los padres, no dolor, el placer de la comida, de las imágenes placenteras, temperatura, sexo, sabores, poder, que las cosas sean como nos gustan, etc, etc, etc
youtu.be/7PKx3kS7f4A
Si te das cuenta el problema está mayormente en lo que nosotros definimos como ético o no. No lo hemos decidido.
Y que las reglas de un parrafo cada una están pensadas para escribir libros, no programar IA porque ni siquiera existian los ordenadores.
Pero desde luego programaremos reglas de control para garantizar la seguridad, lo hacemos en muchísimas de las maquinas que construimos y en muchisimo del software que programamos.
Las definiremos de otra manera, pero el concepto de reglas básicas de seguridad para que esto no se vaya de las manos, seguro que estará ahí.
No es un problema de las leyes de la robótica, que existiran de alguna manera, es un problema de como definirlas.
quiero decir, las escribio en 1942 y el ENIAC es de 1943. Sería raro que una definición inventada antes de la construcción del primer ordenador pudiera ser aplicada al software de 80 años después.
Pero el concepto de ley para preservar la seguridad y que la cosa no desmadre, sigue siendo válido.
cc #28
Por lo tanto si. Si es inteligente tendrá su propia concepción de lo que es "bueno" y lo que es "malo".
De todas formas, esto está visto desde un punto de vista de desarrollador y no desde un punto de vista que la IA desarrollase su propio código y se adaptase.
No habria alguna forma de programar a la IA para que tuviera el código ético "medio" de la humanidad en cada momento?
Por cierto, esa frase de Bing si lees el artículo demuestra que es realmente estúpido.
Y NO. Las IA no tienen la "inteligencia de un niño de 8 años".
Es muchísimo más que eso
Acaso lo nuestro es magia? Alma?
Algunos seres humanos tienen la curiosa manía de llamar "magia" a lo que ignoran.
Ni siquiera hemos conseguido que un IA pueda dirigir un coche de modo completamente autónomo. Una tarea trivial para un humano.
Y estos de OpenIA van por el mismo camino, el de vender humo. Que oye, está bien, su producto es útil, pero no nos confundamos que después acabamos comprando todo lo que quieran vendernos.
No lo sabemos todo. Despierta.
El ajedrez no es más que una enorme combinación de posibles movimientos. Es algo simple.
Y no. No hay ninguna IA ni remotamente cerca de un niño de 9 años.
Yo no he dicho que "no saben conducir". He dicho que no saben hacerlo de modo autónomo del mismo modo que un humano.
Y se lleva mucho intentándolo
Si la conducción autónoma pudiese tener tolerancia a errores a estas alturas ya habría jubilado al 90% de camioneros.
Por eso los que hacéis analogías poniendo el ejemplo de la condución autómoma para decir que el potencial de las IA se verá limitado. No os estáis enterando de por donde van los tiros, la verdad.
Lo digo porque repetimos como loros demasiadas veces de ejemplo de la conducción autónoma sin entender demasiado bien el contexto. El problema de la conducción autónoma no es tanto su dificultad como su poca tolerancia a errores.
En serio pagaría lo que fuese para ver la cara que pondréis cuando dentro de 10 años se os enseñe lo mal que han envejecido comentarios como el tuyo.
Por un lado creo que por un lado te basas en hipótesis intangibles como que el ser humano tiene un "ingrediente" secreto que desconocemos y que es lo que lo hace ser tan inteligente y por otro lado, me parece que no eres consciente del ritmo al que está evolucionando toda esta tecnología que hace 5 años apenas era capaz de escribir una frase con un mínimo de coherencia. En mi opinión no es así, estoy convencido el vamos por el camino correcto y no pararemos de ver avances cada vez más espectaculares e impresionantes en los próximos años que dejarán a los defensores de la "excepcionalidad" del ser humano con cada vez menos argumentos. Puede que los LLM tengan la limitación de que todo el conocimiento que construyen lo hacen a partir de texto y no sea suficiente, pero cuando se le añadan a los modelos más potentes la capacidad de entender, imágenes y videos nos acercaremos mucho a lo que es una AGI.
Respecto a la conciencia, que siempre se mezcla en este debate mucha gente no entiende la diferencia entre conciencia e inteligencia. Me parece que todavía estamos muy lejos.
No se si en 10 años tendremos una AGI, lo que si se es que la IA habrá cambiado nuestras vidas radicalmente en todos los aspectos. Trabajo, ocio, forma de interactuar con el mundo... Por eso digo que sonará ridículo quienes dicen que no es para tanto y que un niño siempre será más inteligente.
Lo que hace es construir una representación abstracta a nivel interno de lo que hay en el texto gracias a las capas de atención. Puedes hacer la prueba haciéndole un examen de comprensión lectora en español de un texto escrito en inglés y verás que lo hace de forma medianamente aceptable. Sin una abstracción de los conceptos en que aparecen, y solo con funciones de probabilidad, esto sería imposible.
En mi opinión estos modelos tienen dos grandes problemas. Uno es que a la hora de entrenar la factualidad de las respuestas no penaliza lo suficientemente la función de coste como la coherencia semántica y la corrección gramatical y otro es saber si solamente entrenando a base de textos se puede destilar plenamente la forma de razonar de los humanos o se necesitan más elementos para enriquecer estos modelos, como imágenes o videos.
Otro jeje:
Pero me gustaría un robotito así para cuando tenga 80 tacos (y para mañana, tb).
De BING... En modo bueno.
Aumenta la eficiencia y disminuye el error humano.
Agiliza la toma de decisiones al analizar miles de datos en minutos.
Libera a las personas de tareas rutinarias y repetitivas y potencia las tareas creativas.
Permite resolver problemas complejos que superan la capacidad humana.
Mejora la calidad de vida y el bienestar de las personas al ofrecer servicios personalizados y asistencia.
AGI puede tener diferentes significados según el contexto. Por ejemplo: • En el ámbito de la inteligencia artificial, AGI significa inteligencia artificial general y se refiere a un sistema de software capaz de realizar cualquier tarea cognitiva que pueda hacer un humano. • En el ámbito de los impuestos, AGI significa ingreso bruto ajustado y se refiere al monto que se obtiene al restar ciertas deducciones al ingreso bruto o total del año. Este monto se usa para calcular el impuesto a pagar al Estado. ¿A cuál de estos significados te refieres?
el de inteligencia artificial desarróllamelo
La inteligencia artificial general (AGI) es una forma teórica de inteligencia artificial que iguala o excede la inteligencia humana promedio. Es decir, un sistema AGI podría realizar con éxito cualquier tarea intelectual de cualquier ser humano, como razonar, aprender, planificar, comunicarse y crear. Un sistema AGI tendría conciencia de sí mismo y podría escribir su propio programa. La inteligencia artificial general se diferencia de la inteligencia artificial débil o específica, que es la que se usa actualmente para resolver problemas concretos y limitados, como reconocer imágenes, traducir textos o jugar ajedrez. La inteligencia artificial débil no tiene capacidad de generalizar ni de adaptarse a situaciones nuevas La inteligencia artificial general es un objetivo muy ambicioso y aún no se ha logrado. Algunos expertos creen que es posible alcanzarlo en este siglo, mientras que otros lo consideran imposible o muy lejano. Los desafíos técnicos y éticos son enormes
Los enlaces he tenido que borrarlos para poderlo subir aquí.
Esta gente en lo que es experta (además de en IA) es en marketing.
Claro que lo sabe, ellos y todo el mundo que tenga un mínimo criterio, pero para engañar a inversores, la treta de nombrar la palabra "AGI" es muy buena dado el contexto... insinúas cosas que después nadie te puede echar en cara porque tú realmente no estabas afirmando que fueras a conseguir nada. Y saben cubrirse las espaldas: of course our current progress could hit a wall...
BLIP-2, para hablarte con otra que ya las hay, para pintarte o dibujarte con Stable Diffusion u otra y asi sucesivamente, tambien las hay para jugar a ajedrez, todo en un mismo entorno donde no distingiras mas que la matriz. Y eso esta al caer si no esta hecho ya y nos lo estan dosificando.
En todo caso es un proceso de aprendizaje y de contraste de experiencias y capacitación de acumularlas y sincronizarlas. No le des tanta importancia.
¿Qué pasará cuando una IA nos permita pensar despacio, profundizando en cada cosa, pero de manera rápida y sin esfuerzo?
Esto va a ser disruptivo de OO.
Claro que primero deberíamos definir que entendemos por "inteligencia", cosa que no es simple.
Entre otras cosas porque si lo diseñamos nosotros no es más que un resultado de nuestra propia inteligencia.
El universo siempre seguirá su curso.
Las guerras pueden ser "inteligentes" si obtienes beneficio de ellas.
Como lleva haciendo el hombre miles de años.
Pero lo dudo mucho.
Si lo dice una IA más inteligente que vosotros, será cierto... ¿no?
O nos quiere engañar ...
No hay ningún problema. Si la IA es inteligente lo podrá decidir por sí misma.
No te das golpes con las esquinas, salvo que vayas "a lo loco".
Con 8 años hay niños que hasta compiten conduciendo Karts y motos.
Y el problema es que la AI tienen más errores que los admisibles. Muchos más errores que un humano, porque tiene muchas más carencias que un humano.
Si las IA no han jubilado a los camioneros es porque NO son capaces de hacer el trabajo de los camioneros. Así de simple.
Y no es ninguna "analogía". Es una muestra del nivel de desarrollo que tienen hoy en día las IA. Muy lejos de una AGI.
Hablamos de una "inteligencia que iguale o supere la inteligencia humana".
Y eso es un error. Es un objetivo del que estamos muy muy muy muy lejos y que personalmente dudo que sea posible.
Una IA hecha por el ser humano siempre será un reflejo distorsionado de la inteligencia humana porque está ideada y diseñada por la inteligencia humana.
Te manda a la mierda y dice que prefiere irse a jugar al fútbol. Lo cual es un signo de inteligencia.
Tienes un concepto de "inteligencia" un tanto extraño. Como si el mezclar cosas que se leen por internet y redactarlas de un modo medio coherente demostrara inteligencia.....
Bueno, es lo que hacemos hoy en día, no ???
Cuanto menos inteligentemente actuemos, más "inteligentes" nos parecerán las AI.
En 10 años no veremos nada que se parezca a una AGI ni de lejos.
La "ética" es una construcción social. Los humanos somos seres sociales.
Los "campos" son TODOS.
Que no conocemos el funcionamiento de la inteligencia humana es un hecho. Avanzamos algo, pero estamos lejísimos de comprender cómo funciona ni siquiera un acto reflejo.
La parte "mágica" es aportación tuya. Desconocer el funcionamiento de algo no lo convierte en "magia".
Exolícame tu la diferencia y la no relación entre conciencia e inteligencia.
Intenta siquiera definirlas de modo completo.
En serio?
Lo dudo mucho. La inteligencia no funciona secuencialmente como un programa
Eso aumenta la utilidad de la herramienta, pero en ningún modo va a ser más "inteligente".
Para eso se necesita una integración mucho mayor de lo que da una simple API.
Depende del nivel en el que midas esas relaciones y a qué le llames "relación interesante".
Una AGI debería ser capaz de hace uso constante de todo su conocimiento en todas las áreas para cualquier tarea y de modo totalmente autónomo. Y por supuesto debería ser capaz de hacer y hacer tareas para las que no las hemos ni preparado ni entrenado, debería hacerlo ella por sí misma por voluntad propia...
Por ejemplo, debería tener "voluntad" sin necesidad de que se la implantáramos en su código.
Si lo defines de diferentes maneras, te refieres a cosas distintas.
¿ Cuando hablas de inteligencia, a qué te refieres exactamente ?
Una vez establecido ese punto podríamos hablar si una IA es "inteligente" o si no lo es. La "inteligencia" en el sentido humano es algo enorme. Tanto que es muy difícil de definir, por eso se habla de diferentes "inteligencias".
Una IA si fuera "inteligente" en sentido humano debería poseerlas todas.
¿Crees que con los conocimientos disponibles en la época una IA actual sería capaz de desarrollar la teoría de la relatividad ? ¿ La teoría de gravitación Universal ? ¿ El cálculo diferencial ? ¿ Determinar que la tierra es redonda y su radio ? ¿ Calcular la masa de la tierra ?....
Y además hacerlo por sí misma. Sin indicaciones que le dirijan en una dirección u otra.
Ni siquiera coincide entre nosotros.
Y algo que carece de libertad de pensamiento (que pueda pensar y razonar en la dirección que decida por sí mismo), no es inteligente
www.meneame.net/story/ia-ya-tiene-capacidad-cognitiva-nino-9-anos
No hay nada más. Miles de millones de átomos relacionados entre ellos, cada uno de ellos haciendo una tarea de lo más simple, electrones pululando alrededor de un núcleo formado por neutrones y protones.
Por lo tanto, solamente es el número y las conexiones entre los átomos donde reside la conciencia.
...
Por consiguiente, es absolutamente ilógico no ver que una silla tiene conciencia igual que una persona y no hay ningún motivo por el que no pueda existir una silla inteligente......
Para empezar. Define "conciencia".
No sé si no lo sabíais, pero de hecho GPT ha aprendido idiomas sin estar previsto en su programación, ha surgido del hecho de juntar tantas neuronas
GPT NO tiene neuronas ni nada que se le parezca remotamente.
Y NO. Las neuronas ni "suman" ni "restan".
En fin, #109 te da explicaciones mejores que las mías.
Menos tragarse todo el sensacionalismo y más ciencia.
PD: La ciencia ficción NO es ciencia.
No encuentras ningún fallo en el "razonamiento lógico" que expones ? ¿En serio?
¿ De verdad crees que de esas premisas se pueden obtener esas conclusiones ?
Vuelvo a mi pregunta original: qué impide que no podamos crear un algoritmo con conciencia?
Define que entiendes por "conciencia" (si puedes) y luego hablamos sobre el tema.
Un algortimo jamás puede tener conciencia. Eso ni se plantea. Un algoritmo no es más que una secuencia de órdenes a seguir......
Lo que igual quieres decir es que el resultado de la ejecución de un algoritmo sea "conciencia".....
está claro que se puede crear un circuito, o algoritmo, o mecanismo, o lo que sea, que sea consciente de él mismo, porque tienes la prueba en ti: si tú existes, entonces es posible crear algo similar a tí.
Que se puede crear algo con "conciencia" es obvio. Que nosotros seamos capaces de hacerlo cuando ni siquiera sabemos bien que es y en qué consiste, no tanto.
Que existan cosas no quiere decir que nosotros estemos capacitados para crearlas, y sobran ejemplos. El primer paso imprescindible es conocer perfectamente el funcionamiento de lo que queremos crear y respecto a la inteligencia estamos muy muy muy muy lejos de eso.
ChatGPT es una IA especializada en lenguaje natural. Los idiomas son lenguaje natural. Pon a chatGPT a llevar un vehículo en Madrid en hora punta.
Respecto a qué "aprendiera de forma espontánea" permíteme que lo dude mucho. ChatGPT no tiene "curiosidad" , no "aprende cosas" a iniciativa propia.
El hacer un símil entre una mal llamada "red neuronal" de una IA con la de un ser humano poniéndolas a alturas similares es ridículo.
Por cierto, cuando nacemos respiramos. Nos late el corazón, reclamamos alimento y sabemos buscar la teta.
Sin entrenamiento, viene en el firmware
Un recién nacido no "mueve los músculos aleatoriamente", ni mucho menos.
Un algoritmo jamás será consciente de nada, no es más que una secuencia de órdenes.
En todo caso la conciencia sería el resultado de la ejecución del algoritmo.
No sabemos ni siquiera definir qué es la inteligencia como para fabricar algo inteligente..
Recomiendo su canal, Robert Miles, www.youtube.com/@RobertMilesAI
El tema de la IA desarrollando su propio codigo lo toca en alguno de sus otros videos.