Actualidad y sociedad
134 meneos
1219 clics
OpenAI: Planeando AGI (Inteligencia Artificial General) y más allá. "Una Súperinteligencia Artificial desalineada podría causar penosos daños al mundo."

OpenAI: Planeando AGI (Inteligencia Artificial General) y más allá. "Una Súperinteligencia Artificial desalineada podría causar penosos daños al mundo."

"Nuestra misión es asegurar que la Inteligencia Artificial General -sistemas de IA que son generalmente más inteligentes que los humanos- beneficien a toda la humanidad." "Una Súperinteligencia Artificial desalineada podría causar penosos daños al mundo." [ ref: Inteligencia Artificial Fuerte o General: es.wikipedia.org/wiki/Inteligencia_artificial_fuerte ]

| etiquetas: openai , agi , ai , inteligencia artificial general
60 74 1 K 341
60 74 1 K 341
12»
  1. #98 La inteligencia es un concepto muy amplio y complejo que se puede definir de diferentes maneras.
    Si lo defines de diferentes maneras, te refieres a cosas distintas.
    ¿ Cuando hablas de inteligencia, a qué te refieres exactamente ?

    Una vez establecido ese punto podríamos hablar si una IA es "inteligente" o si no lo es. La "inteligencia" en el sentido humano es algo enorme. Tanto que es muy difícil de definir, por eso se habla de diferentes "inteligencias".
    Una IA si fuera "inteligente" en sentido humano debería poseerlas todas.


    ¿Crees que con los conocimientos disponibles en la época una IA actual sería capaz de desarrollar la teoría de la relatividad ? ¿ La teoría de gravitación Universal ? ¿ El cálculo diferencial ? ¿ Determinar que la tierra es redonda y su radio ? ¿ Calcular la masa de la tierra ?....

    Y además hacerlo por sí misma. Sin indicaciones que le dirijan en una dirección u otra.
  2. #97 Claro. Correcto.

    Ni siquiera coincide entre nosotros.

    Y algo que carece de libertad de pensamiento (que pueda pensar y razonar en la dirección que decida por sí mismo), no es inteligente
  3. #32 Da igual que detrás de esos modelos no haya nada si pueden llegar a comportarse como si fueran conscientes. Ya sabes: si anda como un pato, grazna como una pato y parece un pato... :-P
  4. #103 El caso es que no lo hacen y, lo que es peor, para alguien que no conozca la respuesta correcta, es difícil saber si lo que dice la IA es verdad o no.
    Si nunca has visto un pato, un pato artificial que vuela con las patas y anda con las plumas puede parecerte un pato de verdad.
  5. #104 Algunos modelos han pasado ya tests psicológicos equivalentes a los de un niño de 9 años. Doy cinco años para una IAG, quizá tres. Y cuando intervengan ellas mismas en su propio diseño, el crecimiento va a ser exponencial...

    www.meneame.net/story/ia-ya-tiene-capacidad-cognitiva-nino-9-anos
  6. #99, entonces sabrás que los modelos de lenguaje actuales no tienen nada que ver con las ontologías, que se usaban hace 10 años pero hoy no utiliza prácticamente nadie que haga investigación avanzada en modelos de lenguaje. A ti no te cabrá ninguna duda, pero yo opino que sí fuese un modelo que redujera el problema del lenguaje a una cuestión estadística, no tendría los problemas de factualidad que tiene. Que de forma subyacente aprenda a agrupar palabras que suelen aparecer juntas de forma más frecuente en el dataset de entrenamiento, no significa que se base en construir modelos de probabilidad para estimar las palabras o dicho de otra forma, esto también lo hacemos los seres humanos cuando hablamos.

    Lo que hace es construir una representación abstracta a nivel interno de lo que hay en el texto gracias a las capas de atención. Puedes hacer la prueba haciéndole un examen de comprensión lectora en español de un texto escrito en inglés y verás que lo hace de forma medianamente aceptable. Sin una abstracción de los conceptos en que aparecen, y solo con funciones de probabilidad, esto sería imposible.

    En mi opinión estos modelos tienen dos grandes problemas. Uno es que a la hora de entrenar la factualidad de las respuestas no penaliza lo suficientemente la función de coste como la coherencia semántica y la corrección gramatical y otro es saber si solamente entrenando a base de textos se puede destilar plenamente la forma de razonar de los humanos o se necesitan más elementos para enriquecer estos modelos, como imágenes o videos.
  7. #106 Hace 10 años las ontologías tampoco se usaban para modelar el lenguaje, sino para modelar el conocimiento.
    Y también hace 10 y diría que hasta 20 años existían métodos de entrenamiento no supervisado que generaban clústeres semánticos con relaciones que tenían sentido, pero no existían los corpus de entrenamiento tan masivos que tenemos hoy en día.
    No te digo ya si hablamos de aprendizaje supervisado; de eso sólo había para entrenar redes neuronales convolucionales para tareas de percepción artificial relativamente sencillas.

    Volviendo al tema, precisamente por quedarse en la capa del lenguaje es por lo que tiene esos problemas de factualidad.
    Si subiera a una capa más abstracta generalizando conceptos, estos problemas serían menores.
    Pero claro, a día de hoy y hasta donde yo sé, explotar un modelo más conceptual es un problema no resuelto.
    Lo más lejos que llegamos, y oye, no está nada mal, es a explotar modelos textuales.
    Y estos modelos, ya sea de manera explícita o subyacente, juegan con probabilidades para encadenar las palabras y frases más "probables" en el contexto de la conversación.

    En cuanto a la prueba de comprensión lectora que comentas, pienso que los textos de traducciones también forman parte del entrenamiento.
    Para mí lo más alucinante de esta tecnología es cómo han conseguido entrenar con un corpus tan masivo y cómo han explotado el modelo de una manera que aparenta inteligencia real.

    Respecto al primer problema que comentas, diría que a día de hoy la factualidad está fuera del entrenamiento, aunque están recogiendo datos con el feedback que damos los usuarios durante las conversaciones.
    Y sobre la pregunta de si sólo con texto es suficiente para llegar a un nivel de razonamiento más o menos abstracto, eso es algo que sólo sabremos según avance la tecnología.
  8. #95 ¿Es diferente/mejor que el blog de Cold Takes?
  9. #85 #49
    Se han estudiado miles de cerebros con microscopio y lo único que se ha encontrado son neuronas.
    No hay nada más. Miles de millones de neuronas, cada una de ellas haciendo una tarea de lo más simple, pero la magia es su organización y entrenamiento de los pesos de sus dendritas hace que de unas pequeñas máquinas de sumar y restar( es la única función de una neurona) hace que surja una persona obtusa e idiotizada, o una con chispa y genio entre millones
    No hay más

    Por lo tanto, es solamente en el número, conexiones y entrenamiento donde reside la conciencia

    Por consiguiente, es absolutamente ilógico no ver que es posible crear una conciencia, un ser pensante consciente de sí mismo a través de cualquier máquina (máquina de Turing)

    De hecho, incluso se podría hacer con vías de trenes y trenes circulando por esas vías. Sería una red de ferrocarril consciente.

    No sé si no lo sabíais, pero de hecho GPT ha aprendido idiomas sin estar previsto en su programación, ha surgido del hecho de juntar tantas neuronas y darle tantos ejemplos, y del entreno.

    Claro que los programadores crearemos un ser consciente! Es sólo cuestión de tiempo, recursos y mejoras en los algoritmos que ideamos
  10. #109
    "No hay más
    Por lo tanto, es solamente en el número, conexiones y entrenamiento donde reside la conciencia"


    Sí hay más, mucho más.

    Para empezar, a nivel macro, no es el cerebro lo único del sistema nervioso central que participa con más o menos peso en nuestras decisiones, comportamiento e intelecto. Por ejemplo, el cerebelo también participa en funciones del lenguaje y del aprendizaje.
    en.wikipedia.org/wiki/Cerebellum

    Continúo con que hay varios tipos de neuronas según su función y localización, no son pequeñas máquinas de sumar y restar.
    en.wikipedia.org/wiki/Neuron

    Sigo con que hay otros tipos de células dentro del cerebro que afectan y manipulan la neurotransmisión y cómo se rompen y forman las conexiones entre neuronas.
    en.wikipedia.org/wiki/Glia

    Y ya termino con que los mecanismos electroquímicos de neurotransmisión son bastante complejos, como la cotransmisión.
    en.wikipedia.org/wiki/Neurotransmission

    Así que no nos engañemos pensando que los modelos actuales de IA basados en redes neuronales arbitrariamente complejas serán suficientes para tener una IA fuerte. La realidad es mucho más compleja.
  11. #7 Positivo por lo de pastoril.
  12. #109 Se ha estudiado profundamente la materia con microscopios electrónicos y lo único que se han encontrado son átomos.

    No hay nada más. Miles de millones de átomos relacionados entre ellos, cada uno de ellos haciendo una tarea de lo más simple, electrones pululando alrededor de un núcleo formado por neutrones y protones.

    Por lo tanto, solamente es el número y las conexiones entre los átomos donde reside la conciencia.
    ...
    Por consiguiente, es absolutamente ilógico no ver que una silla tiene conciencia igual que una persona y no hay ningún motivo por el que no pueda existir una silla inteligente......

    Para empezar. Define "conciencia".


    No sé si no lo sabíais, pero de hecho GPT ha aprendido idiomas sin estar previsto en su programación, ha surgido del hecho de juntar tantas neuronas
    GPT NO tiene neuronas ni nada que se le parezca remotamente.
    Y NO. Las neuronas ni "suman" ni "restan".

    En fin, #109 te da explicaciones mejores que las mías.

    Menos tragarse todo el sensacionalismo y más ciencia.

    PD: La ciencia ficción NO es ciencia.
  13. #26 No estaba dando mi opinión personal, estaba plasmando un hecho.
  14. #112 #110

    Bien, os puedo dar la razón de que es bastante más complejo dar conciencia a un algoritmo.
    Que incluso las uñas de los pies participan de los cálculos.
    Que hay cálculos implicados más complejos que la suma (divisiones, raíces, ?)

    Decían que para jugar al ajedrez se necesitaba intuición, genio, experiencia.
    Y los programadores lo convertimos en un algoritmo capaz de ganar al mejor humano.
    Incluso hicimos que el algoritmo aprendiese por si mismo

    Ahora hemos hecho un algoritmo que es como un niño de 9 años, que ha aprendido el sólo idiomas como el chino, el catalán, el inglés o el alemán, capaz de traducir cualquier combinación. Que "entiende" cualquier cosa que le digamos y nos contesta usando lenguaje humano (no hace falta que me deis una lista con los errores y limitaciones que tiene actualmente)

    Dónde está el límite?
    Qué nos impide dar conciencia a un algoritmo?
    Acaso hay MAGIA en el cuerpo de los humanos? Creéis en la magia?
  15. #114 Insistes en llamar "magia" a lo que desconoces.

    No lo sabemos todo. Despierta.

    El ajedrez no es más que una enorme combinación de posibles movimientos. Es algo simple.

    Y no. No hay ninguna IA ni remotamente cerca de un niño de 9 años.
  16. #52 Errores para humanidad, ya doy por hecho que esas cosas son "malas" para el ser humano. El concepto de bien o mal no existe para el planeta tierra, un planeta deshabitado como venus no es mas "malo" que la tierra, pero es peor para los seres humanos.
  17. #114 Mi comentario habla única y exclusivamente de Medicina; no hay absolutamente nada más en él.
    Así que o bien estás sugiriendo que la Medicina es magia o bien eres uno de esos incultos que no sabe distinguir la ciencia de la magia.

    Eres libre de creer que un modelo demasiado simplista del pensamiento humano va a conseguir alcanzar o incluso superar nuestra capacidad cognitiva.
    Yo creo que no, por mucho hierro (hardware) que se le eche al asunto.

    Tema aparte son tus falacias argumentales, como el ad hominem de si creemos en la magia, el hombre de paja de "MAGIA en los humanos" ¡con mayúsculas y todo! Y para terminar, la comparación entre un problema tan abierto como la IA fuerte y un problema tan cerrado como el ajedrez (reglas simples, claras y conocidas, entorno muy controlado).
    Seguramente ya lo sepas, pero el ajedrez no es más que un algoritmo de búsqueda en el árbol de movimientos, podando a lo bestia los caminos perdedores según heurísticas inventadas por mentes humanas.
  18. #117 #115
    No me habéis entendido ninguno de los dos.
    Estoy diciendo que en una persona NO existe la magia (ni en ningún sitio, evidentemente), y que por lo tanto la conciencia es factible de reproducirse mediante un algoritmo.

    Podemos tardar 1 año en lograrlo, o 10 años, 50, 200 o 9000 años, pero es evidente que se logrará

    (Si, conozco los algoritmos de poda, aunque ese método hace mucho que se dejó atrás para máquinas como Deep blue o DeepMind)

    Los 2 habéis visto ChatGPT, tenéis que reconocer que se está avanzando.
    No podéis decir que es un programa sencillo o anecdótico. La nueva versión usará 600 veces más de parámetros.
    Como será dentro de 50 o 100 años?
    Y dentro de 1000 años?


    Vuelvo a mi pregunta original: qué impide que no podamos crear un algoritmo con conciencia?
    Qué impedimento infranqueable puede haber?
  19. #118 Estoy diciendo que en una persona NO existe la magia (ni en ningún sitio, evidentemente), y que por lo tanto la conciencia es factible de reproducirse mediante un algoritmo.

    No encuentras ningún fallo en el "razonamiento lógico" que expones ? ¿En serio?
    ¿ De verdad crees que de esas premisas se pueden obtener esas conclusiones ?

    Vuelvo a mi pregunta original: qué impide que no podamos crear un algoritmo con conciencia?
    Define que entiendes por "conciencia" (si puedes) y luego hablamos sobre el tema.

    Un algortimo jamás puede tener conciencia. Eso ni se plantea. Un algoritmo no es más que una secuencia de órdenes a seguir......
    Lo que igual quieres decir es que el resultado de la ejecución de un algoritmo sea "conciencia".....
  20. #119 chavi, tú tienes conciencia de tí mismo?
    No sé cómo lo puedes definir, o si tu definición será bien ajustada, o un desastre de definición, pero la realidad es la que es. Tú eres consciente de tí mismo, eres un ser consciente.

    Pues sea cual sea esa definición, lo llames como lo llames, está claro que se puede crear un circuito, o algoritmo, o mecanismo, o lo que sea, que sea consciente de él mismo, porque tienes la prueba en ti: si tú existes, entonces es posible crear algo similar a tí.

    Yo te reto a que me digas el porqué no es posible. Tu me dices que un algoritmo es una secuencia de órdenes a seguir. Correcto. Pero creo que piensas en los algoritmos clásicos, que eran absolutamente previsibles, y que no podían salir de una senda muy estrecha bien marcada.

    Fíjate en algo que ya existe, que ya está superado, y que se sale de lo que (yo creo) crees sobre los algoritmos: ChatGPT no estaba pensado, ni estaba previsto, que aprendiese idiomas.
    Ha sido una consecuencia imprevista. Ha aprendido chino, catalán, inglés, francés, alemán, español y no sé cuántos más sin que los programadores lo codificaran en el algoritmo.
    Ha sido fruto de lo maravillosamente bien que se comporta una red neuronal, que consigue ser bastante a prueba de fallos, que puede aprender a hacer CUALQUIER cosa.
    Si tú pierdes manos y brazos, la red neuronal de tu cerebro se puede entrenar para que aprendas a escribir con la boca.
    Si pierdes una parte de tu cerebro, la que se encargaba del idioma, otra red, la que se encargaba de mover tus pies y del pensamiento espacial, aprenderá español (y alemán si haces unos cursos de alemán)

    Los humanos somos LA HOSTIA porque tenemos una red neuronal inmensamente grande y que tiene todos sus pesos a punto de ajustar. Cuando nacemos no estamos programados para nada. Ni distinguimos objetos que hay delante de nuestros ojos. Tenemos que aprender a distinguir cosas, a entender que existen las palabras, el idioma, a activar músculos aleatoriamente hasta que aprendemos a movernos, a caminar, correr, bicicleta, piruetas con triple salto mortal, etc, etc, etc

    Un algoritmo que sea consciente de sí mismo es imposible no conseguirlo. Si los humanos lo han hecho (ser conscientes de sí mismos), los programadores también lo podemos hacer
  21. #120 Sigo esperando tu definición de "conciencia".


    está claro que se puede crear un circuito, o algoritmo, o mecanismo, o lo que sea, que sea consciente de él mismo, porque tienes la prueba en ti: si tú existes, entonces es posible crear algo similar a tí.


    Que se puede crear algo con "conciencia" es obvio. Que nosotros seamos capaces de hacerlo cuando ni siquiera sabemos bien que es y en qué consiste, no tanto.

    Que existan cosas no quiere decir que nosotros estemos capacitados para crearlas, y sobran ejemplos. El primer paso imprescindible es conocer perfectamente el funcionamiento de lo que queremos crear y respecto a la inteligencia estamos muy muy muy muy lejos de eso.

    ChatGPT es una IA especializada en lenguaje natural. Los idiomas son lenguaje natural. Pon a chatGPT a llevar un vehículo en Madrid en hora punta.

    Respecto a qué "aprendiera de forma espontánea" permíteme que lo dude mucho. ChatGPT no tiene "curiosidad" , no "aprende cosas" a iniciativa propia.

    El hacer un símil entre una mal llamada "red neuronal" de una IA con la de un ser humano poniéndolas a alturas similares es ridículo.

    Por cierto, cuando nacemos respiramos. Nos late el corazón, reclamamos alimento y sabemos buscar la teta.
    Sin entrenamiento, viene en el firmware xD xD
    Un recién nacido no "mueve los músculos aleatoriamente", ni mucho menos.

    Un algoritmo jamás será consciente de nada, no es más que una secuencia de órdenes.
    En todo caso la conciencia sería el resultado de la ejecución del algoritmo.
  22. #121 bueno, veo que todo esto lo ves muy complicado, muy complejo

    No te preocupes, lo vamos a conseguir
  23. #122 No es que "lo vea". Es que lo es.
  24. #123 si, si, es increíblemente complejo, pero estamos camino de conseguirlo, ya no es un sueño inalcanzable

    Tú déjalo en manos de los profesionales, en no demasiados años (pueden ser 20, pero menos de 50 diría yo) se habrá conseguido
  25. #124 Lo dudo mucho.

    No sabemos ni siquiera definir qué es la inteligencia como para fabricar algo inteligente.. :palm:
12»
comentarios cerrados

menéame