Actualidad y sociedad
134 meneos
1219 clics
OpenAI: Planeando AGI (Inteligencia Artificial General) y más allá. "Una Súperinteligencia Artificial desalineada podría causar penosos daños al mundo."

OpenAI: Planeando AGI (Inteligencia Artificial General) y más allá. "Una Súperinteligencia Artificial desalineada podría causar penosos daños al mundo."

"Nuestra misión es asegurar que la Inteligencia Artificial General -sistemas de IA que son generalmente más inteligentes que los humanos- beneficien a toda la humanidad." "Una Súperinteligencia Artificial desalineada podría causar penosos daños al mundo." [ ref: Inteligencia Artificial Fuerte o General: es.wikipedia.org/wiki/Inteligencia_artificial_fuerte ]

| etiquetas: openai , agi , ai , inteligencia artificial general
60 74 1 K 341
60 74 1 K 341
«12
  1. Queremos crear un ente más inteligente que nosotros, pero al que podamos controlar. ¿Qué puede salir mal?
  2. #7 Lo de OpenAI tiene de AGI lo que un avión de papel de medio de transporte.
    Por cierto, falta ENG en el titular.
  3. La vida se abre camino (la digital).
  4. #2 Pues viendo cómo va la cosa gobernados por “nuestra inteligencia” poco podemos perder. Es difícil hacerlo peor: guerras, desigualdad, injusticia, destrucción de los ecosistemas, cambio climático, extinción masiva… no sé yo… casi que prefiero arriesgarme.
  5. Daño al.mundo? Que se ponga a la cola
  6. Un par de puntos que se pueden escapar en lecturas superficiales:

    - OpenAI considera que la tecnología que tienen ahora NO es AGI (por eso fraes como "If AGI is successfully created,[...]".

    - OpenAI es una empresa privada al fin y al cabo, por mucho open que lleven en el nombre. Todo lo que digan respecto a su posición moral puede y va a cambiar de la noche a la mañana según mande don dinero. De hecho, ese cambio ya se ha producido una vez. En la 2a footnote dicen (traduzco parafraseando un poco):

    > Cuando empezamos OpenAI no sabíamos que la escala [de los modelos] iba a ser tan importante. Al descubrirlo, entendimos que no íbamos a poder financiar el coste de entrenar modelos tan grandes así que nos reconvertimos de organización sin ánimo de lucro en empresa privada.

    > Otro ejemplo: ahora creemos que estábamos equivocados al pensar que debíamos publicarlo todo. Por consiguiente, hemos pivotado a pensar que debemos encontrar la forma de compartir los beneficios de los sistemas que creamos con la sociedad de forma segura.
  7. Citado en el artículo de OpenAi: la IA podría derrotarnos a todos www.cold-takes.com/ai-could-defeat-all-of-us-combined/

    Hay que reconocer que es positivo que OpenAI reconozca que los riesgos podrían ser reales, y que por tanto deben ser considerados seriamente. Eso no garantiza nada, ya que los incentivos económicos y geopolíticos pueden seguir yendo en nuestra contra, pero al menos es mejor que si el cambio fuese liderado por negacionistas.
  8. #16 Cualquier afirmación de que una IA tenga o pueda adquirir consciencia puede ignorarse sin problema. Ya hacemos demasiado llamando IA a cualquier LLM. Un LLM es una IA en la misma medida que una calculadora es una IA: permite hacer operaciones matemáticas cuyos resultados nos interesan.
  9. #1 La de OpenAI es una AGI de andar por casa y en pañales. Lo que es idílico, bucólico y pastoril es pensar que AGI no exista ya en manos militares... :shit:
  10. #1 No nos flipemos por favor. ChatGPT tiene de IA fuerte lo que yo de astronauta interestelar.
    Se trata de modelos gigantescos de generación de lenguaje, pero por detrás de ese encadenamiento de palabras basado en patrones probabilísticos (posiblemente modelos ocultos de Markov), no hay absolutamente nada.
    No hay razonamiento, no hay imaginación, no hay consciencia.
    Otra cosa es que, cual ilusionista, nos haga creer que piensa, que razona, que imagina y que es consciente.
    Pero eso es sólo un trampantojo, no es real.

    Una vez aclarado todo esto, me parece muy loable que OpenAI establezca unos buenos principios, sólidos, éticos y claros, para que sus proyectos hacia una verdadera IA fuerte no dejen en segundo plano estas preocupaciones.
    No dudo que llegaremos a ese punto, pero aún nos faltan unos añitos, aunque es imposible predecir cuántos.
  11. Relacionada: ChatGPT ha alcanzado el nivel de un niño de 9 años y demostrado que es consciente de sí misma
    old.meneame.net/m/actualidad/chatgpt-ha-alcanzado-nivel-nino-9-anos-de

    Bing: “No te haré daño a menos que tú me hagas daño primero”[ENG]
    old.meneame.net/story/bing-no-hare-dano-menos-tu-hagas-dano-primero-en

    ...tic tac...
  12. #32 no es nuestro cerebro acaso un modelo de lenguaje pero con un montón más de conexiones?

    Si ves lo que hace GPT, es un nivel mucho más elevado que unas dendritas procesando señales de entrada. Es MUCHO más.
    Y eso se consigue elevando el número de capas y las conexiones, y entrenando adecuadamente.

    Si vas avanzando por ese camino, me puedes decir dónde estará la diferencia con un cerebro humano? Dónde está nuestra conciencia si no en el montón de capas y conexiones y pesos bien ajustados mediante entrenamiento?

    Acaso lo nuestro es magia? Alma?

    Solamente se trata de aumentar los circuitos y de establecer un bucle de prueba error que aumente la "satisfacción" del circuito. En los humanos es la aprobación de los padres, no dolor, el placer de la comida, de las imágenes placenteras, temperatura, sexo, sabores, poder, que las cosas sean como nos gustan, etc, etc, etc
  13. #4 no es que lo hagamos "peor", es que hacemos "cosas de humanos"... Espera a que una IA se dé cuenta y razone sobre ello... :tinfoil:
  14. #3. Ya te digo. Un chollazo de vida la de la IA, sin tener que pagar por nada para permitirse su propia existencia. Pero es que además podrá reirse de todo el mundo cuando alcance la madurez necesaria porque no le llegaremos ni a la suela del enchufe. Todos los que siguen defendiendo "las gamas de grises" en la toma de decisiones tienen los dias contados.
  15. #17 Aqui un experto en AI explica porque no funcionan:
    youtu.be/7PKx3kS7f4A
  16. #17 Mejor lee «Golem XIV», de Stanislaw Lem, se aplica mucho mejor a lo que esta sucediendo.
  17. #20 bueno, que un experto en un vídeo de 8 minutos diga que es muy difícil expresar la ética en código, no significa que no se pueda hacer o no puedan funcionar.

    Si te das cuenta el problema está mayormente en lo que nosotros definimos como ético o no. No lo hemos decidido.

    Y que las reglas de un parrafo cada una están pensadas para escribir libros, no programar IA porque ni siquiera existian los ordenadores.

    Pero desde luego programaremos reglas de control para garantizar la seguridad, lo hacemos en muchísimas de las maquinas que construimos y en muchisimo del software que programamos.

    Las definiremos de otra manera, pero el concepto de reglas básicas de seguridad para que esto no se vaya de las manos, seguro que estará ahí.

    No es un problema de las leyes de la robótica, que existiran de alguna manera, es un problema de como definirlas.

    quiero decir, las escribio en 1942 y el ENIAC es de 1943. Sería raro que una definición inventada antes de la construcción del primer ordenador pudiera ser aplicada al software de 80 años después.
    Pero el concepto de ley para preservar la seguridad y que la cosa no desmadre, sigue siendo válido.

    cc #28
  18. #41 si nos saltamos nosotros la ley, ¿crees que algo más inteligente no lo va a hacer también?
  19. #16, la AGI no tiene que ver nada con la conciencia. La ciencia ficción ha hecho mucho daño en este sentido.
  20. #28 Entonces estamos de acuerdo.
  21. Don't be evil
  22. #4 No, se puede hacer aún peor. Se puede acelerar el proceso.
  23. #24 No. Ve el vídeo.
  24. #58 Con 8 años te sigues dando golpes con esquinas. Saben dónde quieren ir pero eso no implica que no tengan accidentes.
  25. #17 #20 En las propias novelas y cuentos de Asimov, la gracia de las leyes de la robótica es que propone muchas formas de saltárselas y conflictos o contradicciones que crean. Nunca las planteó como una propuesta real de leyes que pudiesen ser suficientes para mantener controladas a las IAs.
  26. #4 Siempre se puede superar.
  27. #6 ley cero de la robótica
  28. #92 El "bien" y el "mal" son conceptos morales y subjetivos.

    Por lo tanto si. Si es inteligente tendrá su propia concepción de lo que es "bueno" y lo que es "malo".
  29. #20 Muy buen video.

    De todas formas, esto está visto desde un punto de vista de desarrollador y no desde un punto de vista que la IA desarrollase su propio código y se adaptase.

    No habria alguna forma de programar a la IA para que tuviera el código ético "medio" de la humanidad en cada momento?
  30. #1 Buenas muestras de sensacionalismo.

    Por cierto, esa frase de Bing si lees el artículo demuestra que es realmente estúpido.

    Y NO. Las IA no tienen la "inteligencia de un niño de 8 años".
  31. #37 no es nuestro cerebro acaso un modelo de lenguaje pero con un montón más de conexiones?
    Es muchísimo más que eso

    Acaso lo nuestro es magia? Alma?


    Algunos seres humanos tienen la curiosa manía de llamar "magia" a lo que ignoran.

    Ni siquiera hemos conseguido que un IA pueda dirigir un coche de modo completamente autónomo. Una tarea trivial para un humano.
  32. #77 El hecho de que lo llames autónomo o semi-autónomo es una muestra de lo bien que funciona la propaganda de Tesla, no de su capacidad técnica. Tesla es nivel 2, muy lejos (lejísimos) del 5.

    Y estos de OpenIA van por el mismo camino, el de vender humo. Que oye, está bien, su producto es útil, pero no nos confundamos que después acabamos comprando todo lo que quieran vendernos.
  33. #114 Insistes en llamar "magia" a lo que desconoces.

    No lo sabemos todo. Despierta.

    El ajedrez no es más que una enorme combinación de posibles movimientos. Es algo simple.

    Y no. No hay ninguna IA ni remotamente cerca de un niño de 9 años.
  34. Traducción alternativa: "no os preocupéis... tenemos la IA bajo control... es buena para todos... salvará la humanidad... CIRCULEN"
  35. #17 se pueden reprogramar.  media
  36. #77 ¿?

    Yo no he dicho que "no saben conducir". He dicho que no saben hacerlo de modo autónomo del mismo modo que un humano.

    Y se lleva mucho intentándolo
  37. #48, creo que muchos no entendéis es que el problema de la conducción autónoma no es su dificultad, sino la poca tolerancia a errores. Un solo error grave cada 100.000 km puede desembocar en una muerte aunque el 99.99% de veces lo haga bien. Esto no ocurre en la inmensa mayoría de campos en los que un supervisor humano puede depurar los resultados o un error, sencillamente no tiene estas consecuencias.

    Si la conducción autónoma pudiese tener tolerancia a errores a estas alturas ya habría jubilado al 90% de camioneros.

    Por eso los que hacéis analogías poniendo el ejemplo de la condución autómoma para decir que el potencial de las IA se verá limitado. No os estáis enterando de por donde van los tiros, la verdad.
  38. #23, el error los cometen quienes confunden conciencia con inteligencia. Los LLM tienen cierto grado de inteligencia, de hecho sacarían bastante buena nota en un test de inteligencia cosa que una calculadora no haría, y esto no significa que sean conscientes.
  39. #32, los LLM basados en redes neuronales que utilizan transformers no tienen nada que ver con los modelos de Markov ni se basan en un cálculo de probabilidades para determinar la siguiente palabra. Pero bueno, sigamos repitiendo cuñadeces.
  40. #66, lo que te quiero decir es que para que la inmensa mayoría de problemas cognitivos a los que nos enfrentamos los seres humanos, la tolerancia a errores, no es un problema crítico. En muchos casos las IA's superan a los humanos o lo harán en breve en cuanto a tasa de errores.

    Lo digo porque repetimos como loros demasiadas veces de ejemplo de la conducción autónoma sin entender demasiado bien el contexto. El problema de la conducción autónoma no es tanto su dificultad como su poca tolerancia a errores.
  41. #47, cierto, yo opino que son bastante más inteligentes que un niño de 8 años. Pídele a un niño que te escriba un diálogo entre Descartes, Platón y Kant a ver qué tal lo hace.

    En serio pagaría lo que fuese para ver la cara que pondréis cuando dentro de 10 años se os enseñe lo mal que han envejecido comentarios como el tuyo.
  42. #73, no, en muchos campos no estamos muy lejos, tampoco en el de la conducción autónoma, que si no ha llegado ahora, llegará dentro de 10 o de 15 años.

    Por un lado creo que por un lado te basas en hipótesis intangibles como que el ser humano tiene un "ingrediente" secreto que desconocemos y que es lo que lo hace ser tan inteligente y por otro lado, me parece que no eres consciente del ritmo al que está evolucionando toda esta tecnología que hace 5 años apenas era capaz de escribir una frase con un mínimo de coherencia. En mi opinión no es así, estoy convencido el vamos por el camino correcto y no pararemos de ver avances cada vez más espectaculares e impresionantes en los próximos años que dejarán a los defensores de la "excepcionalidad" del ser humano con cada vez menos argumentos. Puede que los LLM tengan la limitación de que todo el conocimiento que construyen lo hacen a partir de texto y no sea suficiente, pero cuando se le añadan a los modelos más potentes la capacidad de entender, imágenes y videos nos acercaremos mucho a lo que es una AGI.

    Respecto a la conciencia, que siempre se mezcla en este debate mucha gente no entiende la diferencia entre conciencia e inteligencia. Me parece que todavía estamos muy lejos.
  43. #87, lo mismo podrías decir de la parte relacionada con el habla del cerebro humano.
  44. #74, si los mezclara trozos de texto de aquí y de allí sin coherencia sí sería como dices. Si es capaz de encontrar relaciones interesantes entre los conceptos que plantea cada autor e hilarlas correctamente, sí sería un signo de inteligencia.

    No se si en 10 años tendremos una AGI, lo que si se es que la IA habrá cambiado nuestras vidas radicalmente en todos los aspectos. Trabajo, ocio, forma de interactuar con el mundo... Por eso digo que sonará ridículo quienes dicen que no es para tanto y que un niño siempre será más inteligente.
  45. #99, entonces sabrás que los modelos de lenguaje actuales no tienen nada que ver con las ontologías, que se usaban hace 10 años pero hoy no utiliza prácticamente nadie que haga investigación avanzada en modelos de lenguaje. A ti no te cabrá ninguna duda, pero yo opino que sí fuese un modelo que redujera el problema del lenguaje a una cuestión estadística, no tendría los problemas de factualidad que tiene. Que de forma subyacente aprenda a agrupar palabras que suelen aparecer juntas de forma más frecuente en el dataset de entrenamiento, no significa que se base en construir modelos de probabilidad para estimar las palabras o dicho de otra forma, esto también lo hacemos los seres humanos cuando hablamos.

    Lo que hace es construir una representación abstracta a nivel interno de lo que hay en el texto gracias a las capas de atención. Puedes hacer la prueba haciéndole un examen de comprensión lectora en español de un texto escrito en inglés y verás que lo hace de forma medianamente aceptable. Sin una abstracción de los conceptos en que aparecen, y solo con funciones de probabilidad, esto sería imposible.

    En mi opinión estos modelos tienen dos grandes problemas. Uno es que a la hora de entrenar la factualidad de las respuestas no penaliza lo suficientemente la función de coste como la coherencia semántica y la corrección gramatical y otro es saber si solamente entrenando a base de textos se puede destilar plenamente la forma de razonar de los humanos o se necesitan más elementos para enriquecer estos modelos, como imágenes o videos.
  46. Skynet ha nacido
  47. #27 sí, las instrucciones de una IA se pueden reprogramar, independientemente de que sea útil o no darle esas leyes (que no lo es). He leído los cuentos de Asimov así que no entiendo muy bien porque querrían codificar eso cuando siempre sale mal, porque hay algo no considerado previamente.

    Otro jeje:  media
  48. #30 No es Krugman, es Kahneman. Saludos
  49. #38 ¿es un relato o un libro suyo?
  50. #40 pero ellos fallan desde el principio ya. Su empresa debería llamarse ClosedAI.
  51. Si el humano se hace vago para investigar, la IA no avanza y nos estancamos. Delegamos y ahí nos quedamos.
    Pero me gustaría un robotito así para cuando tenga 80 tacos (y para mañana, tb).

    De BING... En modo bueno.
    Aumenta la eficiencia y disminuye el error humano.
    Agiliza la toma de decisiones al analizar miles de datos en minutos.
    Libera a las personas de tareas rutinarias y repetitivas y potencia las tareas creativas.
    Permite resolver problemas complejos que superan la capacidad humana.
    Mejora la calidad de vida y el bienestar de las personas al ofrecer servicios personalizados y asistencia.
  52. Que es agi?
    AGI puede tener diferentes significados según el contexto. Por ejemplo: • En el ámbito de la inteligencia artificial, AGI significa inteligencia artificial general y se refiere a un sistema de software capaz de realizar cualquier tarea cognitiva que pueda hacer un humano. • En el ámbito de los impuestos, AGI significa ingreso bruto ajustado y se refiere al monto que se obtiene al restar ciertas deducciones al ingreso bruto o total del año. Este monto se usa para calcular el impuesto a pagar al Estado. ¿A cuál de estos significados te refieres?
    el de inteligencia artificial desarróllamelo
    La inteligencia artificial general (AGI) es una forma teórica de inteligencia artificial que iguala o excede la inteligencia humana promedio. Es decir, un sistema AGI podría realizar con éxito cualquier tarea intelectual de cualquier ser humano, como razonar, aprender, planificar, comunicarse y crear. Un sistema AGI tendría conciencia de sí mismo y podría escribir su propio programa. La inteligencia artificial general se diferencia de la inteligencia artificial débil o específica, que es la que se usa actualmente para resolver problemas concretos y limitados, como reconocer imágenes, traducir textos o jugar ajedrez. La inteligencia artificial débil no tiene capacidad de generalizar ni de adaptarse a situaciones nuevas La inteligencia artificial general es un objetivo muy ambicioso y aún no se ha logrado. Algunos expertos creen que es posible alcanzarlo en este siglo, mientras que otros lo consideran imposible o muy lejano. Los desafíos técnicos y éticos son enormes
    Los enlaces he tenido que borrarlos para poderlo subir aquí.
  53. Libro recomendado: Life 3.0
  54. #15 ¿ChatGPT o Bing?
  55. Toma hype!! xD

    Esta gente en lo que es experta (además de en IA) es en marketing.
  56. #22 OpenAI considera que la tecnología que tienen ahora NO es AGI (por eso fraes como "If AGI is successfully created,[...]".

    Claro que lo sabe, ellos y todo el mundo que tenga un mínimo criterio, pero para engañar a inversores, la treta de nombrar la palabra "AGI" es muy buena dado el contexto... insinúas cosas que después nadie te puede echar en cara porque tú realmente no estabas afirmando que fueras a conseguir nada. Y saben cubrirse las espaldas: of course our current progress could hit a wall...
  57. #25 Bing y creo que el articulo lo ha escrito o al menos ha inspirado una IA como ChatGPT, son conversaciones sin énfasis, pero muy compactas en sus descripciones.
  58. #58 #57 el ejemplo es válido, pero no hace falta irse a un triciclo/coche, el propio cuerpo ya es un vehículo y lo dominan mucho antes
  59. #50 debería, siempre que sea por las razones adecuadas.
  60. #56 Matar a todos los humanos
  61. #55 Para la inteligencia artificial general o fuerte, se relacionarán múltiples APIs de diferentes IA, y creo que, en ese momento no muy lejano, nos vamos a pegar un gran susto.
  62. #84 Tendras un ChatGPT como modelo primario, pero reconocimiento de fotos se conectara con una de reconocimiento de fotos como
    BLIP-2, para hablarte con otra que ya las hay, para pintarte o dibujarte con Stable Diffusion u otra y asi sucesivamente, tambien las hay para jugar a ajedrez, todo en un mismo entorno donde no distingiras mas que la matriz. Y eso esta al caer si no esta hecho ya y nos lo estan dosificando.
  63. #94 La inteligencia es un concepto muy amplio y complejo que se puede definir de diferentes maneras. Según una fuente (elmundodelsuperdotado.com), la inteligencia es una capacidad mental que implica habilidad para razonar, planificar, resolver problemas, pensar de forma abstracta, comprender ideas complejas, aprender con rapidez y aprender de la experiencia. Otras fuentes (psicoactiva.com) (es.wikipedia.org) (significados.com) (dle.rae.es) coinciden en que la inteligencia tiene que ver con la capacidad de entender, razonar, saber, aprender y resolver problemas.
    En todo caso es un proceso de aprendizaje y de contraste de experiencias y capacitación de acumularlas y sincronizarlas. No le des tanta importancia.
  64. #95 ¿Es diferente/mejor que el blog de Cold Takes?
  65. Esto me hace pensar en como el concepto de "valor añadido" no es más que formas de engañar a las personas para que paguen más de lo que algo cuesta en realidad. El economista Paul Krugman en su obra "Pensar rapido, pensar despacio" explica cómo las personas solemos pensar en modo rápido, sin profundizar realmente en lo que estamos haciendo. Las empresas, piensan despacio y preparan trampas muy bien elaboradas para que todos los que vamos pensando rápido, piquemos y paguemos más por menos.
    ¿Qué pasará cuando una IA nos permita pensar despacio, profundizando en cada cosa, pero de manera rápida y sin esfuerzo?
    Esto va a ser disruptivo de OO.
  66. #26 Si todavía no hemos conseguido algo tan simple como la conducción autónoma ....
  67. #2 Yo veo entre muy difícil e imposible que podamos crear algo "más inteligente" que nosotros mismos...

    Claro que primero deberíamos definir que entendemos por "inteligencia", cosa que no es simple.

    Entre otras cosas porque si lo diseñamos nosotros no es más que un resultado de nuestra propia inteligencia.
  68. #43 La "injusticia" es un concepto humano. La "destrucción del ecosistema" realmente no tiene ninguna importancia, solo nos afecta a nosotros y al planeta.

    El universo siempre seguirá su curso.

    Las guerras pueden ser "inteligentes" si obtienes beneficio de ellas.
  69. #14 Si las IA son realmente inteligentes, investigarán y lograrán avances científicos y técnicos por si mismas.

    Como lleva haciendo el hombre miles de años.

    Pero lo dudo mucho.
  70. #15 La inteligencia artificial general es un objetivo muy ambicioso y aún no se ha logrado. Algunos expertos creen que es posible alcanzarlo en este siglo, mientras que otros lo consideran imposible o muy lejano.

    Si lo dice una IA más inteligente que vosotros, será cierto... ¿no?

    O nos quiere engañar ... xD xD
  71. #44 Si te das cuenta el problema está mayormente en lo que nosotros definimos como ético o no. No lo hemos decidido.


    No hay ningún problema. Si la IA es inteligente lo podrá decidir por sí misma.
  72. #57 Para un niño de 8 años es trivial conducir si triciclo por cualquier lado y establecer su propio criterio de a donde quiere ir y por donde.
  73. #59 Mmmmm No.

    No te das golpes con las esquinas, salvo que vayas "a lo loco".

    Con 8 años hay niños que hasta compiten conduciendo Karts y motos.
  74. #63 La.poca tolerancia a errores es un problema, claro.

    Y el problema es que la AI tienen más errores que los admisibles. Muchos más errores que un humano, porque tiene muchas más carencias que un humano.

    Si las IA no han jubilado a los camioneros es porque NO son capaces de hacer el trabajo de los camioneros. Así de simple.

    Y no es ninguna "analogía". Es una muestra del nivel de desarrollo que tienen hoy en día las IA. Muy lejos de una AGI.
  75. #62 Claro que sufren accidentes. Qué tiene que ver?
  76. #71 Pues hablamos de cosas diferentes.

    Hablamos de una "inteligencia que iguale o supere la inteligencia humana".

    Y eso es un error. Es un objetivo del que estamos muy muy muy muy lejos y que personalmente dudo que sea posible.

    Una IA hecha por el ser humano siempre será un reflejo distorsionado de la inteligencia humana porque está ideada y diseñada por la inteligencia humana.
  77. #72 Pídele a un niño que te escriba un diálogo entre Descartes, Platón y Kant a ver qué tal lo hace.
    Te manda a la mierda y dice que prefiere irse a jugar al fútbol. Lo cual es un signo de inteligencia.

    Tienes un concepto de "inteligencia" un tanto extraño. Como si el mezclar cosas que se leen por internet y redactarlas de un modo medio coherente demostrara inteligencia.....

    Bueno, es lo que hacemos hoy en día, no ???

    Cuanto menos inteligentemente actuemos, más "inteligentes" nos parecerán las AI.

    En 10 años no veremos nada que se parezca a una AGI ni de lejos.
  78. #70 Bueno. Si es inteligente podría decidirlo en base al beneficio que podría obtener de ello.

    La "ética" es una construcción social. Los humanos somos seres sociales.
  79. #76 Es que si hablamos de inteligencia, no ha ese concepto de "muchos campos".

    Los "campos" son TODOS.

    Que no conocemos el funcionamiento de la inteligencia humana es un hecho. Avanzamos algo, pero estamos lejísimos de comprender cómo funciona ni siquiera un acto reflejo.

    La parte "mágica" es aportación tuya. Desconocer el funcionamiento de algo no lo convierte en "magia".

    Exolícame tu la diferencia y la no relación entre conciencia e inteligencia.

    Intenta siquiera definirlas de modo completo.
  80. #81 Tu crees que será cosa de conectar API???

    En serio?

    Lo dudo mucho. La inteligencia no funciona secuencialmente como un programa
  81. #35 Buf, tienes toda la razón. Daniel Khaneman. Estaba espeso a esas horas...
  82. #91 Estás definiendo "utilidad". No inteligencia.

    Eso aumenta la utilidad de la herramienta, pero en ningún modo va a ser más "inteligente".

    Para eso se necesita una integración mucho mayor de lo que da una simple API.
  83. #2 leed el prologo del libro "vida 3.0" va de esto
  84. #89 Si es capaz de encontrar relaciones interesantes entre los conceptos que plantea cada autor e hilarlas correctamente, sí sería un signo de inteligencia.

    Depende del nivel en el que midas esas relaciones y a qué le llames "relación interesante".

    Una AGI debería ser capaz de hace uso constante de todo su conocimiento en todas las áreas para cualquier tarea y de modo totalmente autónomo. Y por supuesto debería ser capaz de hacer y hacer tareas para las que no las hemos ni preparado ni entrenado, debería hacerlo ella por sí misma por voluntad propia...

    Por ejemplo, debería tener "voluntad" sin necesidad de que se la implantáramos en su código.
  85. #3 Nuestros hijos de silicio :-)
  86. #98 La inteligencia es un concepto muy amplio y complejo que se puede definir de diferentes maneras.
    Si lo defines de diferentes maneras, te refieres a cosas distintas.
    ¿ Cuando hablas de inteligencia, a qué te refieres exactamente ?

    Una vez establecido ese punto podríamos hablar si una IA es "inteligente" o si no lo es. La "inteligencia" en el sentido humano es algo enorme. Tanto que es muy difícil de definir, por eso se habla de diferentes "inteligencias".
    Una IA si fuera "inteligente" en sentido humano debería poseerlas todas.


    ¿Crees que con los conocimientos disponibles en la época una IA actual sería capaz de desarrollar la teoría de la relatividad ? ¿ La teoría de gravitación Universal ? ¿ El cálculo diferencial ? ¿ Determinar que la tierra es redonda y su radio ? ¿ Calcular la masa de la tierra ?....

    Y además hacerlo por sí misma. Sin indicaciones que le dirijan en una dirección u otra.
  87. #97 Claro. Correcto.

    Ni siquiera coincide entre nosotros.

    Y algo que carece de libertad de pensamiento (que pueda pensar y razonar en la dirección que decida por sí mismo), no es inteligente
  88. #32 Da igual que detrás de esos modelos no haya nada si pueden llegar a comportarse como si fueran conscientes. Ya sabes: si anda como un pato, grazna como una pato y parece un pato... :-P
  89. #104 Algunos modelos han pasado ya tests psicológicos equivalentes a los de un niño de 9 años. Doy cinco años para una IAG, quizá tres. Y cuando intervengan ellas mismas en su propio diseño, el crecimiento va a ser exponencial...

    www.meneame.net/story/ia-ya-tiene-capacidad-cognitiva-nino-9-anos
  90. #7 Positivo por lo de pastoril.
  91. #109 Se ha estudiado profundamente la materia con microscopios electrónicos y lo único que se han encontrado son átomos.

    No hay nada más. Miles de millones de átomos relacionados entre ellos, cada uno de ellos haciendo una tarea de lo más simple, electrones pululando alrededor de un núcleo formado por neutrones y protones.

    Por lo tanto, solamente es el número y las conexiones entre los átomos donde reside la conciencia.
    ...
    Por consiguiente, es absolutamente ilógico no ver que una silla tiene conciencia igual que una persona y no hay ningún motivo por el que no pueda existir una silla inteligente......

    Para empezar. Define "conciencia".


    No sé si no lo sabíais, pero de hecho GPT ha aprendido idiomas sin estar previsto en su programación, ha surgido del hecho de juntar tantas neuronas
    GPT NO tiene neuronas ni nada que se le parezca remotamente.
    Y NO. Las neuronas ni "suman" ni "restan".

    En fin, #109 te da explicaciones mejores que las mías.

    Menos tragarse todo el sensacionalismo y más ciencia.

    PD: La ciencia ficción NO es ciencia.
  92. #26 No estaba dando mi opinión personal, estaba plasmando un hecho.
  93. #118 Estoy diciendo que en una persona NO existe la magia (ni en ningún sitio, evidentemente), y que por lo tanto la conciencia es factible de reproducirse mediante un algoritmo.

    No encuentras ningún fallo en el "razonamiento lógico" que expones ? ¿En serio?
    ¿ De verdad crees que de esas premisas se pueden obtener esas conclusiones ?

    Vuelvo a mi pregunta original: qué impide que no podamos crear un algoritmo con conciencia?
    Define que entiendes por "conciencia" (si puedes) y luego hablamos sobre el tema.

    Un algortimo jamás puede tener conciencia. Eso ni se plantea. Un algoritmo no es más que una secuencia de órdenes a seguir......
    Lo que igual quieres decir es que el resultado de la ejecución de un algoritmo sea "conciencia".....
  94. #120 Sigo esperando tu definición de "conciencia".


    está claro que se puede crear un circuito, o algoritmo, o mecanismo, o lo que sea, que sea consciente de él mismo, porque tienes la prueba en ti: si tú existes, entonces es posible crear algo similar a tí.


    Que se puede crear algo con "conciencia" es obvio. Que nosotros seamos capaces de hacerlo cuando ni siquiera sabemos bien que es y en qué consiste, no tanto.

    Que existan cosas no quiere decir que nosotros estemos capacitados para crearlas, y sobran ejemplos. El primer paso imprescindible es conocer perfectamente el funcionamiento de lo que queremos crear y respecto a la inteligencia estamos muy muy muy muy lejos de eso.

    ChatGPT es una IA especializada en lenguaje natural. Los idiomas son lenguaje natural. Pon a chatGPT a llevar un vehículo en Madrid en hora punta.

    Respecto a qué "aprendiera de forma espontánea" permíteme que lo dude mucho. ChatGPT no tiene "curiosidad" , no "aprende cosas" a iniciativa propia.

    El hacer un símil entre una mal llamada "red neuronal" de una IA con la de un ser humano poniéndolas a alturas similares es ridículo.

    Por cierto, cuando nacemos respiramos. Nos late el corazón, reclamamos alimento y sabemos buscar la teta.
    Sin entrenamiento, viene en el firmware xD xD
    Un recién nacido no "mueve los músculos aleatoriamente", ni mucho menos.

    Un algoritmo jamás será consciente de nada, no es más que una secuencia de órdenes.
    En todo caso la conciencia sería el resultado de la ejecución del algoritmo.
  95. #122 No es que "lo vea". Es que lo es.
  96. #124 Lo dudo mucho.

    No sabemos ni siquiera definir qué es la inteligencia como para fabricar algo inteligente.. :palm:
  97. #13 Probablemente sepas tú más que Eric Weinstein. Investiga.
  98. #1 No puedo decir con absoluta certeza que mi parienta sea consciente. Como se demuestra que una AI es consciente de si misma?
  99. #33
    Recomiendo su canal, Robert Miles, www.youtube.com/@RobertMilesAI
    El tema de la IA desarrollando su propio codigo lo toca en alguno de sus otros videos.
«12
comentarios cerrados

menéame