"Nuestra misión es asegurar que la Inteligencia Artificial General -sistemas de IA que son generalmente más inteligentes que los humanos- beneficien a toda la humanidad." "Una Súperinteligencia Artificial desalineada podría causar penosos daños al mundo." [ ref: Inteligencia Artificial Fuerte o General:
es.wikipedia.org/wiki/Inteligencia_artificial_fuerte ]
Si lo defines de diferentes maneras, te refieres a cosas distintas.
¿ Cuando hablas de inteligencia, a qué te refieres exactamente ?
Una vez establecido ese punto podríamos hablar si una IA es "inteligente" o si no lo es. La "inteligencia" en el sentido humano es algo enorme. Tanto que es muy difícil de definir, por eso se habla de diferentes "inteligencias".
Una IA si fuera "inteligente" en sentido humano debería poseerlas todas.
¿Crees que con los conocimientos disponibles en la época una IA actual sería capaz de desarrollar la teoría de la relatividad ? ¿ La teoría de gravitación Universal ? ¿ El cálculo diferencial ? ¿ Determinar que la tierra es redonda y su radio ? ¿ Calcular la masa de la tierra ?....
Y además hacerlo por sí misma. Sin indicaciones que le dirijan en una dirección u otra.
Ni siquiera coincide entre nosotros.
Y algo que carece de libertad de pensamiento (que pueda pensar y razonar en la dirección que decida por sí mismo), no es inteligente
Si nunca has visto un pato, un pato artificial que vuela con las patas y anda con las plumas puede parecerte un pato de verdad.
www.meneame.net/story/ia-ya-tiene-capacidad-cognitiva-nino-9-anos
Lo que hace es construir una representación abstracta a nivel interno de lo que hay en el texto gracias a las capas de atención. Puedes hacer la prueba haciéndole un examen de comprensión lectora en español de un texto escrito en inglés y verás que lo hace de forma medianamente aceptable. Sin una abstracción de los conceptos en que aparecen, y solo con funciones de probabilidad, esto sería imposible.
En mi opinión estos modelos tienen dos grandes problemas. Uno es que a la hora de entrenar la factualidad de las respuestas no penaliza lo suficientemente la función de coste como la coherencia semántica y la corrección gramatical y otro es saber si solamente entrenando a base de textos se puede destilar plenamente la forma de razonar de los humanos o se necesitan más elementos para enriquecer estos modelos, como imágenes o videos.
Y también hace 10 y diría que hasta 20 años existían métodos de entrenamiento no supervisado que generaban clústeres semánticos con relaciones que tenían sentido, pero no existían los corpus de entrenamiento tan masivos que tenemos hoy en día.
No te digo ya si hablamos de aprendizaje supervisado; de eso sólo había para entrenar redes neuronales convolucionales para tareas de percepción artificial relativamente sencillas.
Volviendo al tema, precisamente por quedarse en la capa del lenguaje es por lo que tiene esos problemas de factualidad.
Si subiera a una capa más abstracta generalizando conceptos, estos problemas serían menores.
Pero claro, a día de hoy y hasta donde yo sé, explotar un modelo más conceptual es un problema no resuelto.
Lo más lejos que llegamos, y oye, no está nada mal, es a explotar modelos textuales.
Y estos modelos, ya sea de manera explícita o subyacente, juegan con probabilidades para encadenar las palabras y frases más "probables" en el contexto de la conversación.
En cuanto a la prueba de comprensión lectora que comentas, pienso que los textos de traducciones también forman parte del entrenamiento.
Para mí lo más alucinante de esta tecnología es cómo han conseguido entrenar con un corpus tan masivo y cómo han explotado el modelo de una manera que aparenta inteligencia real.
Respecto al primer problema que comentas, diría que a día de hoy la factualidad está fuera del entrenamiento, aunque están recogiendo datos con el feedback que damos los usuarios durante las conversaciones.
Y sobre la pregunta de si sólo con texto es suficiente para llegar a un nivel de razonamiento más o menos abstracto, eso es algo que sólo sabremos según avance la tecnología.
Se han estudiado miles de cerebros con microscopio y lo único que se ha encontrado son neuronas.
No hay nada más. Miles de millones de neuronas, cada una de ellas haciendo una tarea de lo más simple, pero la magia es su organización y entrenamiento de los pesos de sus dendritas hace que de unas pequeñas máquinas de sumar y restar( es la única función de una neurona) hace que surja una persona obtusa e idiotizada, o una con chispa y genio entre millones
No hay más
Por lo tanto, es solamente en el número, conexiones y entrenamiento donde reside la conciencia
Por consiguiente, es absolutamente ilógico no ver que es posible crear una conciencia, un ser pensante consciente de sí mismo a través de cualquier máquina (máquina de Turing)
De hecho, incluso se podría hacer con vías de trenes y trenes circulando por esas vías. Sería una red de ferrocarril consciente.
No sé si no lo sabíais, pero de hecho GPT ha aprendido idiomas sin estar previsto en su programación, ha surgido del hecho de juntar tantas neuronas y darle tantos ejemplos, y del entreno.
Claro que los programadores crearemos un ser consciente! Es sólo cuestión de tiempo, recursos y mejoras en los algoritmos que ideamos
"No hay más
Por lo tanto, es solamente en el número, conexiones y entrenamiento donde reside la conciencia"
Sí hay más, mucho más.
Para empezar, a nivel macro, no es el cerebro lo único del sistema nervioso central que participa con más o menos peso en nuestras decisiones, comportamiento e intelecto. Por ejemplo, el cerebelo también participa en funciones del lenguaje y del aprendizaje.
en.wikipedia.org/wiki/Cerebellum
Continúo con que hay varios tipos de neuronas según su función y localización, no son pequeñas máquinas de sumar y restar.
en.wikipedia.org/wiki/Neuron
Sigo con que hay otros tipos de células dentro del cerebro que afectan y manipulan la neurotransmisión y cómo se rompen y forman las conexiones entre neuronas.
en.wikipedia.org/wiki/Glia
Y ya termino con que los mecanismos electroquímicos de neurotransmisión son bastante complejos, como la cotransmisión.
en.wikipedia.org/wiki/Neurotransmission
Así que no nos engañemos pensando que los modelos actuales de IA basados en redes neuronales arbitrariamente complejas serán suficientes para tener una IA fuerte. La realidad es mucho más compleja.
No hay nada más. Miles de millones de átomos relacionados entre ellos, cada uno de ellos haciendo una tarea de lo más simple, electrones pululando alrededor de un núcleo formado por neutrones y protones.
Por lo tanto, solamente es el número y las conexiones entre los átomos donde reside la conciencia.
...
Por consiguiente, es absolutamente ilógico no ver que una silla tiene conciencia igual que una persona y no hay ningún motivo por el que no pueda existir una silla inteligente......
Para empezar. Define "conciencia".
No sé si no lo sabíais, pero de hecho GPT ha aprendido idiomas sin estar previsto en su programación, ha surgido del hecho de juntar tantas neuronas
GPT NO tiene neuronas ni nada que se le parezca remotamente.
Y NO. Las neuronas ni "suman" ni "restan".
En fin, #109 te da explicaciones mejores que las mías.
Menos tragarse todo el sensacionalismo y más ciencia.
PD: La ciencia ficción NO es ciencia.
Bien, os puedo dar la razón de que es bastante más complejo dar conciencia a un algoritmo.
Que incluso las uñas de los pies participan de los cálculos.
Que hay cálculos implicados más complejos que la suma (divisiones, raíces, ?)
Decían que para jugar al ajedrez se necesitaba intuición, genio, experiencia.
Y los programadores lo convertimos en un algoritmo capaz de ganar al mejor humano.
Incluso hicimos que el algoritmo aprendiese por si mismo
Ahora hemos hecho un algoritmo que es como un niño de 9 años, que ha aprendido el sólo idiomas como el chino, el catalán, el inglés o el alemán, capaz de traducir cualquier combinación. Que "entiende" cualquier cosa que le digamos y nos contesta usando lenguaje humano (no hace falta que me deis una lista con los errores y limitaciones que tiene actualmente)
Dónde está el límite?
Qué nos impide dar conciencia a un algoritmo?
Acaso hay MAGIA en el cuerpo de los humanos? Creéis en la magia?
No lo sabemos todo. Despierta.
El ajedrez no es más que una enorme combinación de posibles movimientos. Es algo simple.
Y no. No hay ninguna IA ni remotamente cerca de un niño de 9 años.
Así que o bien estás sugiriendo que la Medicina es magia o bien eres uno de esos incultos que no sabe distinguir la ciencia de la magia.
Eres libre de creer que un modelo demasiado simplista del pensamiento humano va a conseguir alcanzar o incluso superar nuestra capacidad cognitiva.
Yo creo que no, por mucho hierro (hardware) que se le eche al asunto.
Tema aparte son tus falacias argumentales, como el ad hominem de si creemos en la magia, el hombre de paja de "MAGIA en los humanos" ¡con mayúsculas y todo! Y para terminar, la comparación entre un problema tan abierto como la IA fuerte y un problema tan cerrado como el ajedrez (reglas simples, claras y conocidas, entorno muy controlado).
Seguramente ya lo sepas, pero el ajedrez no es más que un algoritmo de búsqueda en el árbol de movimientos, podando a lo bestia los caminos perdedores según heurísticas inventadas por mentes humanas.
No me habéis entendido ninguno de los dos.
Estoy diciendo que en una persona NO existe la magia (ni en ningún sitio, evidentemente), y que por lo tanto la conciencia es factible de reproducirse mediante un algoritmo.
Podemos tardar 1 año en lograrlo, o 10 años, 50, 200 o 9000 años, pero es evidente que se logrará
(Si, conozco los algoritmos de poda, aunque ese método hace mucho que se dejó atrás para máquinas como Deep blue o DeepMind)
Los 2 habéis visto ChatGPT, tenéis que reconocer que se está avanzando.
No podéis decir que es un programa sencillo o anecdótico. La nueva versión usará 600 veces más de parámetros.
Como será dentro de 50 o 100 años?
Y dentro de 1000 años?
Vuelvo a mi pregunta original: qué impide que no podamos crear un algoritmo con conciencia?
Qué impedimento infranqueable puede haber?
No encuentras ningún fallo en el "razonamiento lógico" que expones ? ¿En serio?
¿ De verdad crees que de esas premisas se pueden obtener esas conclusiones ?
Vuelvo a mi pregunta original: qué impide que no podamos crear un algoritmo con conciencia?
Define que entiendes por "conciencia" (si puedes) y luego hablamos sobre el tema.
Un algortimo jamás puede tener conciencia. Eso ni se plantea. Un algoritmo no es más que una secuencia de órdenes a seguir......
Lo que igual quieres decir es que el resultado de la ejecución de un algoritmo sea "conciencia".....
No sé cómo lo puedes definir, o si tu definición será bien ajustada, o un desastre de definición, pero la realidad es la que es. Tú eres consciente de tí mismo, eres un ser consciente.
Pues sea cual sea esa definición, lo llames como lo llames, está claro que se puede crear un circuito, o algoritmo, o mecanismo, o lo que sea, que sea consciente de él mismo, porque tienes la prueba en ti: si tú existes, entonces es posible crear algo similar a tí.
Yo te reto a que me digas el porqué no es posible. Tu me dices que un algoritmo es una secuencia de órdenes a seguir. Correcto. Pero creo que piensas en los algoritmos clásicos, que eran absolutamente previsibles, y que no podían salir de una senda muy estrecha bien marcada.
Fíjate en algo que ya existe, que ya está superado, y que se sale de lo que (yo creo) crees sobre los algoritmos: ChatGPT no estaba pensado, ni estaba previsto, que aprendiese idiomas.
Ha sido una consecuencia imprevista. Ha aprendido chino, catalán, inglés, francés, alemán, español y no sé cuántos más sin que los programadores lo codificaran en el algoritmo.
Ha sido fruto de lo maravillosamente bien que se comporta una red neuronal, que consigue ser bastante a prueba de fallos, que puede aprender a hacer CUALQUIER cosa.
Si tú pierdes manos y brazos, la red neuronal de tu cerebro se puede entrenar para que aprendas a escribir con la boca.
Si pierdes una parte de tu cerebro, la que se encargaba del idioma, otra red, la que se encargaba de mover tus pies y del pensamiento espacial, aprenderá español (y alemán si haces unos cursos de alemán)
Los humanos somos LA HOSTIA porque tenemos una red neuronal inmensamente grande y que tiene todos sus pesos a punto de ajustar. Cuando nacemos no estamos programados para nada. Ni distinguimos objetos que hay delante de nuestros ojos. Tenemos que aprender a distinguir cosas, a entender que existen las palabras, el idioma, a activar músculos aleatoriamente hasta que aprendemos a movernos, a caminar, correr, bicicleta, piruetas con triple salto mortal, etc, etc, etc
Un algoritmo que sea consciente de sí mismo es imposible no conseguirlo. Si los humanos lo han hecho (ser conscientes de sí mismos), los programadores también lo podemos hacer
está claro que se puede crear un circuito, o algoritmo, o mecanismo, o lo que sea, que sea consciente de él mismo, porque tienes la prueba en ti: si tú existes, entonces es posible crear algo similar a tí.
Que se puede crear algo con "conciencia" es obvio. Que nosotros seamos capaces de hacerlo cuando ni siquiera sabemos bien que es y en qué consiste, no tanto.
Que existan cosas no quiere decir que nosotros estemos capacitados para crearlas, y sobran ejemplos. El primer paso imprescindible es conocer perfectamente el funcionamiento de lo que queremos crear y respecto a la inteligencia estamos muy muy muy muy lejos de eso.
ChatGPT es una IA especializada en lenguaje natural. Los idiomas son lenguaje natural. Pon a chatGPT a llevar un vehículo en Madrid en hora punta.
Respecto a qué "aprendiera de forma espontánea" permíteme que lo dude mucho. ChatGPT no tiene "curiosidad" , no "aprende cosas" a iniciativa propia.
El hacer un símil entre una mal llamada "red neuronal" de una IA con la de un ser humano poniéndolas a alturas similares es ridículo.
Por cierto, cuando nacemos respiramos. Nos late el corazón, reclamamos alimento y sabemos buscar la teta.
Sin entrenamiento, viene en el firmware
Un recién nacido no "mueve los músculos aleatoriamente", ni mucho menos.
Un algoritmo jamás será consciente de nada, no es más que una secuencia de órdenes.
En todo caso la conciencia sería el resultado de la ejecución del algoritmo.
No te preocupes, lo vamos a conseguir
Tú déjalo en manos de los profesionales, en no demasiados años (pueden ser 20, pero menos de 50 diría yo) se habrá conseguido
No sabemos ni siquiera definir qué es la inteligencia como para fabricar algo inteligente..