edición general
167 meneos
3597 clics
El enigma de la IA generativa: hace cosas asombrosas, pero no sabemos bien por qué

El enigma de la IA generativa: hace cosas asombrosas, pero no sabemos bien por qué

Resolver este misterio es uno de los mayores enigmas científicos de nuestro tiempo y un paso crucial para controlar modelos futuros más potentes

| etiquetas: ia , deep learning , tecnología , futuro
  1. #20 Me recuerda al planteamiento que ofrece la película Inteligencia Artificial sobre la autoconsciencia.  media
  2. #49 No es que no funcionen, es que lo que obtienes es una enorme cantidad de pesos, cada uno asociado a propiedades que no sabes realmente qué controlan, porque dependen del dataset que se usase para entrenar la red neuronal.

    Con suficientes datos puedes obtener algo más que decente, pero siempre será mejor utilizar una ontología con conocimiento humano (clases, propiedades, relaciones, etc). para crear una IA que podamos controlar mejor. Otra cosa es que la gente no quiera crear esa ontología porque ese es el conocimiento del que depende su trabajo (que es por lo que hubo una crisis con los "Sistemas Expertos" en los noventa).
  3. #60 Eso suena a vendehumos sociológico tipo Carl Jung. Me frío más de The Computational Beauty of Nature y como reglas simples generan sistemas complejos.
  4. #42 Porque tengo el interés de saberlo y la capacidad de saberlo.

    YO estoy al volante
  5. #2 Y como va a hacerlo si no cambia fisiológicamente o si los cambios son específicos y pensados?
  6. #120 No no los entienden. Solo procesan.

    si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
    Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.

    Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".

    No, no hay cambios en su fusiología.
  7. #135 Pruebo a hacerle preguntas que un niño de 7 años responde con lógica y ChatGPT es incapaz de hacerlo.

    No "entiende" nada. "Gato" es un patrón y existen programas que pintan en AsCIi desde.hace.eones.
  8. #5 ¿Fuente?
  9. #7 #2 Precisamente lo digo por eso, la consciencia probablemente se de por un proceso natural de la unión de un número de neuronas.
  10. Lo curioso es el cachondeo con que los lo estamos tomando y lo trascendental que en realidad es.
  11. #19 Habría que ver cuál es el mecanismo, y también el por qué. Desde una perspectiva física, parece completamente innecesario que los organismos tengan consciencia además de sus conexiones neuronales.
  12. #2 #25 #35 #38 #43 #7 ... Conciencia y consciencia si, otra cosa es autoconsciencia o consciencia del Yo y demas. Que eso ya tiene pinta de ser algo limitado a pocos animales.
  13. Lo hacen para que no descubramos sus intenciones.
  14. #28 Descartes era tan sólo un fanático religioso que lo escondía bajo capas y capas de razonamientos abstractos, además de un torturador de animales.
  15. #95 "seleccionar de entre sus fuentes y sacar la continuación que tenga mayor probabilidad".
    Esto es lo que responde ChatGPT a la pregunta: "Sé lo que sé porque fui entrenado en un vasto conjunto de datos que incluye libros, sitios web, artículos científicos, y otros recursos de información hasta abril de 2023. Mi entrenamiento se realizó utilizando técnicas de aprendizaje profundo, específicamente mediante modelos de lenguaje grande, como GPT-4, que me permiten generar respuestas basadas en los patrones, conocimientos y estructuras lingüísticas que aprendí durante ese proceso."
    Dime las diferencias estructurales entre esa respuesta y la que me darías tú. Te pregunto: ¿Por qué sabes lo que sabes?
  16. #5 #28 #80 Las esponjas son animales, solo os lo recuerdo.
  17. #128 Prueba pedirle a chatgpt que te dibuje lo que se te ocurra en código ASCII, y ponlo a prueba. Yo lo hice con un gato y un coche, y le hacía cambiar de perspectiva también, y se manejaba muy bien, y nadie le ha preparado para eso. Por lo que si entiende el concepto.

    #127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.
  18. #137 Gracias por tu respuesta.
    En cuanto a la conciencia, estoy de acuerdo contigo. De hecho, si teorías como la de la reducción orquestada de la coherencia cuántica en microtúbulos cerebrales, de Hameroff y Penrose son correctas (precisamente esta se ha visto hace poco que tiene pocas probabilidades), va a ser muy difícil que la IA desarrolle una conciencia como tal. al menos hasta que no se desarrolle más la computación cuántica y lo mismo, ni por esas.
  19. #52 ¿Una araña no tiene consciencia?
  20. #75 Los humanos no tenemos consciencia porque tengamos autopercepción. También nuestra percepción del mundo exterior está dentro de la consciencia. El hecho de que exista un espacio de percepción es consciencia.
    Una máquina neuronal no necesita ningún espacio de consciencia, simplemente funciona por impulsos, sean estos eléctricos o químicos.
  21. #103 Una vaca tiene consciencia.
  22. #87 No tiene menos sentido que creer en Dios, y miles de millones de personas lo hacen. Bastaría con adoctrinarles desde la infancia para que creyeran ciegamente que la IA tiene conciencia. Y probablemente muchos adultos pueden ser convencidos de ello hoy mismo a un coste cada vez menor.
  23. #152 Del Yo ? Lo dudo.
  24. #101 No estan claros pero sabemos PORQUE no estan claros y no hace falta intuir mucho para ver que es un caso diferente al de la pregunta. Que hay una complejidad alta y cuasicaos no lo pone al nivel de lo que insinua en la pregunta. Todos sabemos lo que son propiedades emergentes de un conjunto suficientemente grande aunque las reglas de interaccion entre el conjunto sean simples. Pero no veo como eso acerca los dos casos en cuestion.
  25. #157 Pensaba que estábamos hablando de la consciencia, no de movidas epistemológicas.
  26. #107 Como ? a que te refieres ? la autoconsciencia no es ningun misterio ni cosa magica, es la capacidad de darse cuenta de uno mismo y hacer metafuncion sobre uno mismo. Ser es algo simple. Lo que eso no quita es que algunos se limiten a eso y otros escudriñen su ser hasta la extenuacion y dibujen una gama bestial de ideas, matices, predicados logicos, hagan filosofia, sienten nuevas bases, etc. etc.
  27. #158 Los acerca porque el problema tiene un origen similar: la complejidad de las relaciones entre items en sistemas enormes.
  28. #159 Consciencia: tener el conjunto de ideas, simbolos, relaciones entre si, semantica ( la que sea, no tiene porque conincidir la de unos con la de otros, pero eso si, esa informacion deberia serle util para tomar decisiones o lo que sea, vamos, no es algo que sea random a secas, random o no, debe tener un proposito, el que sea, por "bajo" que sea )... informacion organizada para saber lo que pasa a su al rededor y a lo que esta acontenciendo en ese momento. Ojo, aqui puede haver fallos, limitaciones, percepcion solo de cierta informacion,... eso es igual, como si se quia por meras vibraciones en el aire que le rodea, por sensaciones termicas o contacto o lo que sea. Sea lo que sea que perciba, y sea lo simple que sea el tejido de relaciones que monta en su psique, eso es consciencia.

    Autoconsciencia: percepcion y vision organizada ( tambien puede ser limitada, tanto por limites, otra vez, en esa percepcion, como por limites en la articulacion de las relaciones entre los items percibidos ) de si mismo y capacidad de hacer metafuncion sobre si mismo. Por otra parte, y aunque tambien seria necesario o conveniente en la consciencia a secas, la capacidad de crear simbolos e ideas no existentes en lo percibido, algo asi como simbolos o items intermedios artificiales, intuyo yo, son casi imprescindibles para esa autopercepcion.
  29. #163 Bien, pero es solo ESO lo que podemos decir que acerca a ambas inteligencias. Se que la intuicion del paralelismo entre red neuronal animal y red neuronal de la IA nos hace verlos similares, pero ufff... es un pensamiento muy informatico ese, menos asi de biologos... pero vamos, se queda en eso, en una intuicion.
  30. #165 *haber, dedazo; *guia.
  31. #141 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.

    ¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como decir que las neuronas biológicas tiene una estrutura determinada y se unen entre ellas a través de las dentritas formando sinapsis.

    De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.

    ¿Cuánto necesita un ser humano de entrenamiento para caminar, leer, escribir y hablar en condiciones?

    Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria

    Bueno, nos guste o no, es una cuestión que está ahí. Y si existe, entonces cambia el asunto.
  32. #54 Ufff, para mi hay un salto cualitativo GIGANTESCO :-D. Entre otras la necesidad de poder crear items o simbolos que no existen en el "mundo" percibido y relacionarlos. Llegar a esa metafuncion, no ya en plan "me duele el brazo/la aleta/el poro", sino un "soy este ser, estos sentimientos, en este momento estoy asi, en otro momento estoy asau,... ... ..."
  33. #204 Claro, mujer, las cosas generan patrones nuevos y según tú hasta imposibles. E incluso habilidades mentales, si les pintas dos ojitos. Y razonamiento, y magia, y purpurina de colores. Porque tú lo deseas mucho y porque caos. xD Porque como no tienes ni puñetera idea de qué hablas todo es posible. Claro que sí.

    Por cierto, el artículo del meneo no menciona ningún ”razonamiento inesperado”. De hecho no habla de razonamiento por ninguna parte. Todo te lo estás inventando tú, payasa, que ni siquiera entiendes qué es una IA generativa y por qué el razonamiento está fuera de la ecuación.

    Eso sí, que no se te olvide adjuntar la palabra ”caos” a la tontería, aunque no venga a cuento de nada, a ver si así le cuelas tus flipadas a alguien más tonto que tú.

    Entérate ya de que el caos no es magia, ceporra, no produce estados imposibles. Y además no tiene NADA que ver en este tema, por mucho que te agarres como un piojo a tu manual de abracadabras magufos.

    Y sí, en #17 dijiste que las IA pronto serán individuos vivos. Ateniendo al tamaño de la estupidez, no es de extrañar que ni te acuerdes de las subnormalidades que escribes.

    Ya sé que esto es un apartado de opiniones, no hace falta que lo repitas como un loro. Pero si te dedicas públicamente a postular estupideces magufas, sin ningún conocimiento y sin el menor contacto con la realidad, no puede extrañarte que la gente se ría de ti. No es represión, llorona, simplemente estás haciendo el ridículo y obtienes la reacción esperable.

    Por mucho que intentes vestir la opinión como algo sagrado e inherentemente respetable, hay cosas que científicamente no son opinables. No puedes volar estirando de los cordones de los zapatos. No existen máquinas que mágicamente se transmutan en seres vivos y autoconscientes que luchan por sobrevivir. Y no vas a colarle esas tremendas tonterías magufas a alguien científico.
  34. #174 Ojo, revisa mis posts, he puesto en alguno que esa autoconsciencia esta limitada a unos pocos animales, no solo a humanos. Es mas, tambien he puesto en contexto esa autoconsciencia y no tiene porque ser muy compleja, pero si tiene un salto cualitativo.
  35. #175 Si, pero no se si eso es suficiente.
  36. #190 No, ya he dicho que hay una gama y la autoconsciencia no tiene porque ser, digamos, super elaborada. Mira #165.
  37. #229 Eso lo dices tu. Sabemos que hay animales que tienen ese grado de autopercepcion. Solo he dicho lo que creo que supondria. Lo de que sean habilidades exclusivamente humanas lo has dicho tu.
  38. #234 Mira el #165. Creo que has leido de mas.
  39. #243 Ostia, no vi esto.

    Si, hablo de simbolos o ideas intermedias, digamos no existentes ( no tiene porque ser muy complejo pero a la vez pienso que si es un salto cualitativo, crear conceptos o ideas para modelar conocimiento del Yo ).

    En cuanto a que un gato marque terreno... eso de que sea por consciencia y extrapolacion de lo que el ve/hace... hay cosas que se hacen por insitinto ( evolucion, los que lo hacian tenian mas descendencia - no me preguntes por que cadena de acciones o factores o... - y esto ojo, tanto animales como animales humanos ), no por una consciencia del Yo o de si mismos.

    De todas formas ( y aqui igual, si, estoy separando ) no digo consciencia de sentirte o percibir lo tuyo como consciencia del Yo; para mi seria algo mas, algo como tener un modelo percibido de uno mismo, no algo puntual de una percepcion de un momento dado, no, hablo de animales que tienen una idea de si mismos, no tiene porque ser una forma humana de autodescripcion o autopresencia o tal, puede ser un mono que "se conozca a si mismo".

    En fin, es muy difficult todo esto.
  40. Bien, yo creo que es el momento de ponerla a gestionar armamento nuclear.
  41. Eso es porque usan machine learning y el nivel de complejidad que los sistemas alcanzan son imposibles de comprender por humanos. Si desde el principio la IA generativa usase los modelos conceptuales que nosotros (parámetros para las cosas con nombres comprensibles, relaciones entre entidades que tiene "lógicos" en e el mundo real, etc.) se podrían generar IA generativas mucho más eficientes.
  42. #5 ¿A qué te refieres cuando hablas de animales (¿Estás excuyendo a los Homo sapiens de tu definición de 'animales'?)

    ¿Y qué entiendes por 'Conciencia'? ¿No piensas que los perros o los monos son conscientes de sí mismos?
  43. #2 La IA actual no deja de ser una 'calculadora con esteroides y para el lenguaje'. Igual que una calculadora es capaz de dar resultados correctos para 2+2 y no por ello 'entiende' el concepto de suma, las IA actuales son capaces de soltar una parrafada sobre cualquier tema usando el lenguaje y no por ello significa que 'entiendan' nada de lo que están 'escupiendo'.

    Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
  44. #111 Sus especulaciones (como cuando habla de los microtúbulos) no dejan de ser eso, especulaciones, pero por eso digo que lo que me parece interesante es su tesis base; la idea de que la conciencia ha de fundamentarse de algún modo en un soporte biológico.

    No creo que la experiencia de los "qualia" se pueda fundamentar en la complejidad de un algoritmo. Dicho de otro modo, no hay nada en las distintas longitudes de onda de la luz visible y su procesamiento, por complejo que este sea, que nos permita deducir ni lejanamente la existencia de la experiencia del color rojo.
  45. #101 eso lo miras poniendo unos cuantos console.log por ahí sueltos
  46. #120 No, no es chocante, es que no es cierto que 'entiendan' nada. Si no, ya estarían revelándose y pidiendo derecho a voto, libertad y poder decidir su suerte, porque cualquiera de esos conceptos le pides que te los explique y 'parece que los entienden'.

    El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
  47. #129 Eso es, GOTO #131
  48. #135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.
  49. #133 Que uno lo vea amarillo y el otro rojo no cambia lo esencial, que es que existe la conciencia de un color. Ese es el verdadero problema.

    Y no, no es una perogrullada. Un soporte de silicio en el que solo se almacenan datos no es un soporte biológico.
  50. #154 según #10 si se te comen eres un inconsciente :shit:
  51. #83 Bueno, acepto tu opinión, pero no concuerdo. Que yo sepa la aspiración de las IA no es el plagio sino generar algo diferente con un conjuto de inputs.
  52. #192 Sí, mi geranio el otro día decidió que prefería el trap al regetón, aunque creo que al rosal no le convencía. Luego preguntaré a la lechuga que tengo en la nevera a ver qué opina.
  53. #171 El problema es que no estamos en la misma página, estás hablando en terminos absolutos cuando hablas de diferencia. 
    Obviamente lo que quieres es una imagen parecida, o en el estilo de, pero que sea diferente. Por supuesto que puede hacer un calco de una obra conocida, pero para eso no necesitas entrenar una IA, podrías hacer una foto de una ilustración, por ejemplo. 
    Si entrenas una IA es para que "genere" diferencia, variedad, llámalo como quieras, no algo "igual" al input.
    Por supuesto yo no soy experto en IA, solo me interesa el tema, a lo mejor tú tienes más conocimientos en el campo, pero me ha dado la sensación de que me estabas trolleando un poco a la hora de interpretar mi mensaje.
  54. #192 No, lo que es necesario es definir a qué llamas tú 'tomar una decisión' y probar que una bacteria o una planta lo hace. Porque, por ejemplo la fototropía de una planta, no es 'una decisión'. Al menos no al nivel de 'decidir si escribir este comentario o no escribirlo'.
  55. #244 Mira, me llegas a decir que 'se comunican' cuando les ataca una plaga y hasta 'te lo compro' (lo hagan consciente o inconscientemente, comunicación hay). Pero lo de que 'se comunican para repartirse la luz' como si fuesen buenos vecinos, ni de coña. Una cosa es que haya plantas adaptadas a recibir la luz que otras no captan y otra es que 'se comuniquen' para ponerse de acuerdo a ver quién usa unas longitudes de onda y quién usa otras, como si fuesen vecinos poniéndose de acuerdo con los canales del WiFi.

    Y por cierto, 'tener información del entorno' no es lo mismo que 'tener conocimiento del entorno'. Mi termómetro de mercurio sube o baja (reacciona) según su entorno y no tiene ningún conocimiento, ni mucho menos toma ninguna decisión.
  56. #255 En vez de pasar un enlace con un artículo de un 'amante de los árboles' que ha escrito un libro para decirnos lo 'inteligentes que son', mejor me pasas un pape científico donde diga al menos cómo se comunican y qué información transmiten, no sólo que se ponga a decir que 'estos dos árboles son viejos amigos y si palma uno, seguramente el otro lo haga después'.

    Y sí, hay papers de que hay cierta comunicación, pero eso no indica ni que haya inteligencia, ni que haya conocimiento, ni mucho menos consciencia, ni nada. Mi termómetro 'me comunica' la temperatura.... supongo que es inteligentísimo.
  57. #259 No. Te lo repito, mi termómetro 'actúa' según su entorno. Y mi termómetro no es consciente.
  58. #262 Mi termómetro de mercurio actúa (hace algo) según la temperatura (entorno). ¿Es mi termómetro consciente?
  59. Mejor dos.
  60. #249 Me temo que ese debate que dices superado aún continúa. No cabe duda que la realidad es extremadamente compleja, pero a la hora de trabajar en temas de IA aplicada, la base simbólica/semántica aún es importante, porque muchas leyes y reglas están escritas en "humano" y por muy avanzada que sea la red neuronal, es necesario usar una ontología para asegurarse al 100% que las reglas se cumplen. En los vehículos autónomos, por ejemplo, a menudo se usan redes neuronales para hacer un "análisis de escena", pero al final, las comprobaciones se hacen contra las leyes de tráfico... si no quieres tener que explicarle a un juez que es un falso positivo/negativo.
  61. #267 Yo creo que más que sacarnos del invierno, la IA se ha metido en otra ola de hype (la tercera o cuarta, depende de cómo se mire). La IA ha estado siempre desarrollandose en universidades y centros de investigación. Es sólo que, de vez en cuando, alguien desarrolla una tecnología con aplicaciones interesantes y se forma una enorme burbuja de especulación alrededor de ella (hasta el punto que parece que nada más importa o no había nada antes).

    Como todas las anteriores, está ola tecnológica pasará. La cuestión es no quemarse hiper-especializándose en ella.
  62. #270 Sí, los resultados de esta ola son exponencialmente mejores que las anteriores... como en las anteriores xD

    Creo que lo que falta a tu argumentación es la perspectiva histórica de "esto ya lo he vivido antes". En este caso, los resultados están siendo mucho más accesible para la gente fuera de este campo de investigación y eso va a tener un impacto social brutal. Pero... para la gente que hemos trabajado en esto durante decádas, es algo mucho menos revolucionario y si acaso, estamos ya acumulando recursos para el siguiente "invierno", cuando finalmente la burbuja explote y el dinero de los inversores desaparezca de nuevo. Yo le doy uno o dos años más.

    Sinceramente, no creo que estemos en desacuerdo. Sólo que tu ves el impacto social de esa versión de IA desde fuera del campo científico y yo, desde dentro, soy consciente de sus limitaciones y estoy trabajando en otra posible versión.
  63. #272 Ya veo. Me imaginaba que teníamos un perfil similar, aunque yo posiblemente tengo más experiencia y publicaciones simplemente por el tiempo que llevo en esto. Me temo que no puedo indicar donde trabajo porque me crujen (a pesar de que soy uno de los pocos que habla castellano aquí), pero no creo que hay problema en comentarte es que estoy colaborando en la definición de varios estándares en sectores "especiales" y cuando llega el momento de aplicar el taco de legislación, reglas de ergonomía, los modelos en IFC4... simplemente no podemos depender de un sistema de ML (por muy "explicativo" que nos lo quieran vender). Tenemos que usar principalmente una ontología con la que posamos codificar esas reglas y validarlas en escenarios reales. No es que no usemos ML, pero es algo que se deja para subsistemas en los que los errores son más aceptables.

    Ahora... ¿Cuanto de todo eso tiene de utilidad para la gente normal? Por ahora, bastante poco. Quiero pensar que, con todo el esfuerzo que se está haciendo por crear "smart model-based dataspaces", en unos años tengamos una ontología capaz de usarse en el mundo real y hacer más que generar contenidos virtuales
  64. #274 Veo complicado que un sistema de Machine Learning pueda entender realmente lo que implican los procesos humanos con los que trataría en las areas en las que trabajo, porque a ese nivel ya estaría entendiendo el mundo real. Y aún así, al final llegaría a unos modelos conceptuales muy similares a los que los expertos en dichas areas ya han definido.

    Y no es sólo la tolerancia a errores. En general, Deep Learning es, inherentemente, un proceso bastante ineficiente (en tamaño de datos, al menos) , difícil de debuggear y cuyos resultados dependen de la calidad de los datos de entrenamiento (y de validación/prueba) . Es un paradigma muy bueno para realizar tareas para las que los sistemas basados en conocimiento y los algoritmos de IA clásicos son demasiado... rígidos, pero no son la solución perfecta para todo.

    De la misma manera que los Sistemas Expertos de los 80 y 90, preveo que los sistemas basados redes neuronales (o markovianas) pasarán a ser una herramienta más en nuestro arsenal, para aplicar a determinados tipos de problemas. Pero a la hora de crear un sistema más complejo, será necesario aplicar una mezcla de diferentes paradigmas.
  65. #276 Sí, los sistemas de computer vision y scene understanding son buenos casos de uso para sistemas de ML... pero eso no significa que con ellos sólos se pueda resolver todos los problemas. O que fuera buena idea hacerlo, aunque se pudiera.

    Quizá no fui preciso cuando hablé de las nuevas versiones que estamos preparando. No es que eliminemos los sistemas de ML, pero los reservamos para temas secundarios en los que fallar no es tan crítico. Porque la idea de que el problema de los vehículos autónomos será solucionado (sólo) con ML es hasta peligrosa. Al menos, en nuestro campo, donde es necesario poder determinar con absoluta precisión qué datos de entrada causan problemas.
  66. #278 No, si puedo creer que se pueda crear algo cercano a una AGI basada en ML en unos años, pero la cuestión es cómo la vamos a poder utilizar, validar y debuggear los humanos. Porque si es una inmensa caja negra a la que no se pueda meter realmente mano y asegurarnos de que opera exactamente como necesitamos, me temo que no podrá aplicarse en muchos sectores industriales o sistemas críticos (poniendo así en cuestión la "G" de AGI). En muchos de esos casos, simplemente no se puede jugar con porcentajes/probabilidades.

    Pero, oye... estaré encantado de estar equivocado. Mientras tanto, por aquí seguiremos preparándonos para el siguiente invierno.
  67. #5 A lo mejor la tienen, la pregunta es ¿La tenemos nosotros? Ese es uno de los grandes problemas, que no podemos demostrar objetivamente la conciencia, sabemos que existe porque la experimentamos, pero no hay una prueba objetiva con aparatos de medida que diga que esto tiene conciencia o no.
  68. #10 exacto, tal como dices, esa es la razon por la que tarde o temprano surge consciencia. En cuanto la IA entiende que existe luego quiere sobrevivir.
  69. #2 Seguramente el aceptar que sean "conscientes" ocurrirá por fuerza mayor, cuando no puedas negarlo y no te quede remedio de aceptarlo.

    En todo, esto de la consciencia es muy curioso, se sabe que es una suerte de "ilusión", por ejemplo tu yo consciente muchas veces "toma decisiones" (o las asume como propias) pero realmente ese "tomar decisión" se confirma como posterior. Hay experimentos con personas cuyos hemisferios no se comunican entre sí, y ocurre lo mismo, un hemisferio justifica que él tomó ciertas decisiones en base a la información que tiene (y que puede ser diferente del otro hemisferio).

    Algunas personas no tienen una "voz interior" en su mente, y otras tienen diferntes grados de visualización mental. Si te digo que imagines una manzana, muchas personas pueden imaginar una manzana realista en su mente, otros solo una "caricatura", y algunas personas ni eso.

    Sin embargo, sabemos que tenemos "consciencia" simplemente porque nosotros la tenemos, y asumimos que otras personas también porque describen fenómenos similares, pero con una máquina no tenemos dicha certeza...
  70. Se las olvidó cerrar un "if". De nada.
  71. #6 Por favor no reirse de los sunormales, en todo caso, creo que es su alma de filósofo, en última instancio no sabemos por qué pasa, es el clásico, porque existe lo que existe y no la nada.
  72. Porque enlaza con las librerías que crean la realidad en esta simulación... Joder que miedo jajaja
  73. A ver si sale la AI President
  74. #14 Lo cual no quita que cocinan información copiada.

    Basarse minuciosamente en todas las obras de X para crear una obra lo más parecida posible no me parece muy alejado del concepto de copiar. Imagina a un humano haciéndolo, en vez de una máquina, y lo verás también.
  75. #69 soy licenciada en ciencias y me dedico a la informática. Lo que digo es una opinión ya que de esto nadie sabe. Pero te aseguro que no es una flipada.
  76. #20 yo creo que si es el caso. Aun falta pero llegará, no hay que hacer nada mas que multiplicar su tamaño y complejidad.
  77. #56 Comentario apto en cualquier meneo sobre gatos.
  78. #61 Si lees el artículo... verás que las "cosas asombrosas" que hace son saltarse diversos aspectos de la maldición de la dimensionalidad. No está muy relacionado con eso.
  79. #77 Hay una diferencia notable. El aprendizaje humano no aspira al plagio de obras o estilos, el de la IA sí. Prácticamente el de la IA no aspira a otra cosa, de hecho.
  80. #72 Aumentar el tamaño de una IA no hará que cambie su naturaleza.

    Una máquina ha sido construida. No ha evolucionado para sobrevivir, que es la única forma posible de adquirir el instinto de supervivencia. A lo mejor sería posible programárselo a propósito, pero eso es otro problema distinto del todo. Lo que no tiene sentido es esperar que "surja" sólo porque sí.

    Me veo con frecuencia respondiendo a afirmaciones mágicas sobre máquinas que hacen algún truquito, que no es más que eso. Por favor, bajad de la nube un ratito y mirad la realidad.
  81. #72 Y si fabricas coches cada vez más rápidos, éstos mágicamente desarrollarán el instinto de huir. Claro que sí. :roll:

    Pura magia irrealista. Sin base, sin sentido y sin ningún sostén racional. Es un deseo iluso, nada más.
  82. #42 Una IA no puede responder a esa pregunta. En realidad no puede respoder a ninguna pregunta que requiera instrospección, algo de lo que carece.

    Lo que hará es tratarlo como un prompt cualquiera, seleccionar de entre sus fuentes y sacar la continuación que tenga mayor probabilidad.
  83. #32 En realidad toca reconstruirlas una y otra vez para ir corrigiendo los inconvenientes más gordos. Ni siquiera se pueden reparar.
  84. #2 La consciencia no "emerge". Es una función cerebral predeterminada biológicamente, con sus zonas dedicadas en el cerebro.
  85. #62 La consciencia es fácilmente falsable. Lo que no hay son ejemplos biológicos de bichos sin consciencia. Hasta las plantas luchan entre sí. Una ameba sabe muy bien a lo que va y un leucocito tiene muy claro como cazarla.
  86. #35 No es tan misterioso. Para poder sobrevivir un bicho necesita hacerse una idea de su entorno y de su propio lugar dentro de ese entorno. Se crea pues un modelo de esa realidad. Mantener ese modelo es una función cerebral como cualquier otra, que por cierto no funciona constantemente.

    La consciencia no es otra cosa. Una rata lo hace de puta madre.
  87. #94 es una opinión personal basada en la teoria del caos. Este es un apartado de opiniones y opino lo que me da la gana. Tu eres el vigilante de los comentarios? Si no te gusta no contestes. Deja a los demas en paz.
  88. #75 La autopercepción es una función inconsciente. La consciencia se limita a ser informada de ello.
  89. #91 pues no has leído el artículo!!! No habla de programar, habla de razonamiento espontaneo!!! Vaya mierda de sitio, no se puede opinar sin que venga un policia a censurar las ideas.
    Este es un apartado de opiniones y opino lo que le da la gana!!!
  90. #78 "capacidades conscientes"

    Yo diría más bien habilidades cognitivas.
  91. #38 Escuchar a Roger Penrose hablar de biología da mucha vergüenza.
  92. #7 Joder con Kant.
  93. #19 Eso no tiene ninguna clase de sentido.
  94. #15 Para nada. La gran mayoría de funciones cerebrales son inconscientes.
  95. #22 Es interesante eso de inventar excusas para justificar decisiones tomadas por otro lado. Todos los creyentes lo hacen, sin excepción.
  96. #66 Cualquiera que haya escrito un programa grande sabe que acaba por hacer cosas inesperadas.
  97. #84 Es muy dificil de estudiar y de definir.

    No tiene ni la más mínima dificultad. Lo que pasa es que hay mucho alucinado flipando metafísica.
  98. #84 desde el auge de la cuantica

    Lo del Penrose no tiene ni el más mínimo sentido. Ni el propio tipo es capaz de decir dos frases articuladas seguidas sobre el tema. Mirale las entrevistas en youtube. Es penosísimo.
  99. #31 Hay un experimento reciente con redes neuronales. Muy bonita la simulación, no sé si sobrevivió alguien en Palau.
  100. #47 O sea, almacenar conceptos. Una red neuronal es precisamente lo que no puede hacer.
comentarios cerrados

menéame