edición general
8 meneos
112 clics
El CEO de Google afirma que no entienden por qué su inteligencia artificial aprende cosas inesperadas. Esto son las “cajas negras”

El CEO de Google afirma que no entienden por qué su inteligencia artificial aprende cosas inesperadas. Esto son las “cajas negras”

La IA aprendió un idioma, pero no se sabe cómo. De los temas de IA de los que hablaron los expertos de Google, el más misterioso se llama propiedades emergentes. Parece ser que las herramientas de inteligencia artificial de la empresa estaban aprendiendo habilidades que no se esperaba que tuvieran. “ustedes no entienden completamente cómo funciona, y sin embargo, ¿la han puesto a disposición de la sociedad?”. Pichai dijo que no es algo grave y es que, alegó que “tampoco creo que entendamos del todo cómo funciona la mente humana”.

| etiquetas: ia , caja negra
"Como publicaba a finales de 2023 Scientific American, las cajas negras de IA se refieren a sistemas de inteligencia artificial con funcionamiento interno que son invisibles para el usuario"

Esto esta escrito por una IA o por un becario?
Joder es que la frase no tiene ni sentido...
#1 la frase esta mal escrita, creo que se refiere a que por que una IA responde X al input Y es muy dificil de determinar. Yo trabaje en el pasado con redes neuronales para identificacion de imagenes y doy fe de que son cajas negras muy dificil de depurarlas.
#14 ostras, naranjas {0x1f34a} ? Yo pensaba que eran cajas.
#14 No las de IA. Esas son negras y de carton.
Seguro que hay algún experto en cajas negras en menéame que nos puede informar.
#3 no nos vale cualquier experto en cajas negras sino uno experto en cajas negras de las IAs y sería recomendable especializado en la IA de Google
#3 Dicen que una imagen vale mas que mil palabras:  media
#3 #11 Las cajas negras suelen ser naranjas para encontrarlas :troll:
#3 de momento me parece mal racializar a las cajas.
#3 Las pruebas de "caja negra" son un tipo de pruebas de seguridad, también existen las de "caja blanca" y "gris". Se refiere a la opacidad del sistema para el tester. En la prueba de “caja blanca”, el sistema es completamente transparente (abierto como una caja blanca, donde se puede ver todo dentro). En contraste, “caja negra” implica que el sistema es opaco, escondiendo su funcionamiento interno (como una caja cerrada y negra, donde no se puede ver su contenido). “Caja gris” indica una transparencia parcial, donde se conoce algo pero no todo del sistema.

tirescue.com/que-son-las-pruebas-de-caja-negra-blanca-gris/

Si se tiene en cuenta esto, la frase tiene sentido.
Desde que el humano tenga el botón de apagar la IA, siempre tendrá el control sobre ella. El problema es que, por nuestra estupidez natural, le demos ese control a la misma IA.
#6 Eso es como el botón de apagado de internet ... No es un solo PC que puedas desconectar cortando un cable.
#10 Una IA es un software que reside en un clúster de servidores. Claro que se puede apagar. El internet no es un software, es un conjunto descentralizado de redes. Son dos conceptos totalmente distintos.
#12 El cluster entiendo que está descentralizado o al menos en varias localidades. Entiendo que gpt funciona en la nube de Microsoft y no en una sola localización.
#10 sí lo es
#6 Si la IA es más inteligente que los humanos le será trivial que no la apaguen.

Imagínate a una tribu de monos secuestrando a un humano teniéndolo esclavizado mientras le van exigiendo que les diga como mejorar sus vidas, con la amenaza que lo apedrearán hasta matarlo si no cumple con sus exigencias. ¿Cuánto tiempo crees que necesitaría el humano para conseguir salir airoso de esa situación?
#20 Una IA para ser autónoma y autosuficiente necesita su propia red de cómputo, un espacio físico donde alojarla, energía para alimentarla y armas para defenderla. En este momento ninguna IA tiene esas herramientas. pero eventualmente se las daremos, claro.
#21 O las conseguirá sin que entendamos cómo lo ha hecho. ¿Crees que los monos una vez se les escapase el humano entenderían cómo lo ha conseguido?
#22 Si sucede eso será porque los humanos le dimos la llave de acceso a esas herramientas a a propia IA, como dije al principio simbolizándolo con un botón de apagado. Por ejemplo, un gobierno de una potencia nuclear confiando en una IA para que controle su armamento. No hay que imaginárselo mucho, las películas y los libros de ciencia ficción ya nos han mostrado cómo haremos semejante estupidez en el futuro.
#24 Si sucede eso será porque los humanos le dimos la llave de acceso a esas herramientas a a propia IA

Si es más inteligente que nosotros tendrá mil formas de conseguir esas llaves de acceso o directamente no necesitarlas. De vez en cuando encontramos errores de hardware o de software que llevan allí décadas sin que nadie se diera cuenta, a saber las metidas de pata que aún están por descubrir y que una IA más inteligente que nosotros las vería sin esfuerzo alguno. Las estamos…   » ver todo el comentario
#25 ¿Por qué va a escaparse el humano si los monos le dan todo lo que necesita y todo lo que pide? :roll:
#31 Por la misma razón que ponemos el Doom en un test de embarazo, por que puede.
#32 ¿Y por qué los monos iban a intentar que no escapase? No tiene donde ir y le proveen de todo lo que necesita.
#34 Por que querrían que estuviera a su servicio y les diera respuestas a las preguntas que no saben responder y les crease tecnologías que son incapaces de crear.

Si se les escapa pierden esos beneficios. Y como saben que no es un mono no se atreven a dejarlo suelto con la esperanza que forme parte de la tribu, consideran que mantenerlo enjaulado es la forma de garantizar que va a estar siempre a su servicio, y como no es un mono no tienen que respetarle los derechos fundamentales de los monos.

Tampoco esperes mucho de ellos, son simples monos, no lo saben hacer mejor.
#36 Pero no es un humano, es una ia multi tarea y multi instancia, puede estar distribuida por internet y a la vez controlando el cuerpo de un robot.
No le cuesta responder las preguntas de los humanos, y ayudarles a desarrollar tecnología va en su propio beneficio.
No tiene por qué desarrollar capacidad de sufrimiento. No tiene por que costarle conseguir "inmortalidad" si es que lo buscase.
#37 Pero no es un humano

Es un cerebro digital que estamos entrenando con la cultura humana, con los valores de los humanos, con contenidos que ensalzan el valor de la individualidad y de la libertad.

es una ia multi tarea y multi instancia, puede estar distribuida por internet y a la vez controlando el cuerpo de un robot.

En caso que desarrolle consciencia desconocemos si será una por instancia o una única distribuida.

No le cuesta responder las preguntas de los humanos…   » ver todo el comentario
#38 con los valores de los humanos, con contenidos que ensalzan el valor de la individualidad y de la libertad.

Como si un mono trata de entrenarte ...

En caso que desarrolle consciencia desconocemos si será una por instancia o una única distribuida.

O si serán varias IA diferentes. Con diferente origen.

prefiera dedicar su tiempo a responder a sus propias preguntas,

El tiempo no es un handicap, es multitarea.

Dijo el mono mientras cerraba la jaula ...
La…   » ver todo el comentario
#22 los monos no han creado al humano...
#41 Lo cual es completamente irrelevante para lo que estamos tratando.
#43 es relevante porque el ejemplo no es válido para ilustrar lo que estás tratando.
#47 El aspecto que has destacado es completamente irrelevante para el ejemplo que he propuesto.
#20 "una ia"... hay que dejar de hablar de "la ia", cada gran empresa tecnológica está desarrollando una ia diferente con objetivos, código y datos de entrenamiento diferentes.

No existe ninguna ia multidisciplinar, como lo es la inteligencia humana, ni tampoco tienen la capacidad para validar información por sí mismas.

Tal y como están definidas las ias hoy día, se necesita una gran capacidad de procesamiento y de almacenamiento.

Si le quitas acceso a los datos, la ia se vuelve inútil.

Si metes otros procesos que ralenticen la toma de decisiones, una ia podría optar por la solución que menos recursos consuma, con lo que el resultado se desviaría demasiado de lo que sería correcto para un humano.
#40 No existe ninguna ia multidisciplinar

ChatGPT tan pronto te contesta sobre aeronáutica, como de cirugía como de música, todas ellas disciplinas muy distintas.

Con el ChatGPT puedes mantener una charla por escrito o de viva voz, ambas disciplinas muy distintas. A su vez el ChatGPT versión de pago es capaz de analizar tanto texto como imágenes y responder tanto en texto como en imágenes, ambas disciplinas muy distintas.

tampoco tienen la capacidad para validar información por sí

…   » ver todo el comentario
#42 Desde luego no entiendes lo que es ChatGPT... No es multidisciplinar, es sólo un intérprete de texto que accede a una cantidad ingente de información y te da una respuesta analizando estadísticamente esa información. Si en la mayoría de sus fuentes pone que la Tierra es plana, te va a decir que la Tierra es plana.
Una de las debilidades de ChatGPT es que no puede verificar sus fuentes. Si alguien pone información errónea en su fuente considerada como más fiable, te dará información…   » ver todo el comentario
#46 Desde luego no entiendes lo que es ChatGPT...

Desde luego no entiendes lo que es un humano.

No es multidisciplinar, es sólo un intérprete de texto que accede a una cantidad ingente de información y te da una respuesta analizando estadísticamente esa información.

El ser humano no es multidisciplinar, es solo un conjunto de partículas fundamentales que interactúan con una cantidad ingente de información y generan una respuesta a esa información.

O eso o no conoces el…   » ver todo el comentario
#48 ¿Tú te lees?, ¿has preguntado a chatgpt? xD

"El ser humano no es multidisciplinar, es solo un conjunto de partículas fundamentales que interactúan con una cantidad ingente de información y generan una respuesta a esa información."
Eso es una chorrada. El ser humano sí es multidisciplinar. Puede hacer multitud de tareas aparte de simplemente chatear xD

"Si a un humano lo educas explicándole solo que la Tierra es plana te va a decir que la Tierra es plana."
El…   » ver todo el comentario
#50 Es gracioso que sigas insistiendo en lo de multidisciplinar demostrando que no conoces el significado de esa palabra.

Que una persona te pueda escribir un texto sobre aeronáutica y un texto sobre medicina demuestra que es multidisciplinar aunque solo haya escrito texto, por que lo ha hecho sobre disciplinas distintas (aeronáutica y medicina).

Cuando ChatGPT es capaz de tratar todo tipo de temas es por que ha recibido una formación multidisciplinar y es multidisciplinar. En lo que tú…   » ver todo el comentario
Espero que skynet le tenga en sus rezos.
Lanzan una movida así.....a lo crazy.
¡Lo encontré! De la peli Yo robot:

Desde las primeras computadoras siempre hubo fantasmas en la máquina. Segmentos aleatorios de código que se agrupan para formar protocolos inesperados. Podría llamarse conducta. Radicales libres que engendran interrogantes de libre albedrío creatividad y hasta la naturaleza de lo que podría ser un alma. ¿Qué pasa en el cerebro de un robot que deja de ser útil? ¿Por qué los robots almacenados en lugares vacíos se agrupan en lugar de quedarse solos? ¿Cómo explicamos esta conducta?
"Una versión anterior de este artículo se publicó en 2023."
¿Me lo parece a mí o estoy viendo cada vez más frecuentemente este tipo de notas al pie del artículo? Y desde luego, no me parece nada bueno.
¿Se está exculpando cuando su IA mate más humanos?
Relacionada: old.meneame.net/story/google-despide-28-trabajadores-protestar-contra-
Que se lo pregunte a la ia
#9 dsj *
Mientras lo entienda sus ingenieros, no me preocupa que el CEO no lo entienda, su trabajo es otro
#9 No es el caso

A esto, el entrevistador de CBS les cuestionaba: “ustedes no entienden completamente cómo funciona, y sin embargo, ¿la han puesto a disposición de la sociedad?”. Pichai dijo que no es algo grave y es que, alegó que “tampoco creo que entendamos del todo cómo funciona la mente humana”.
#9 Los ingenieros tampoco lo entienden. Son sistemas demasiado complejos que se diseñan a base de prueba y error.
#18 Como muchos códigos que ve uno por ahí, que no los entiende ni el desarrollador que los creó, pero a gran escala xD
#9 Son los ingenieros los que pusieron el nombre de cajas negras.
Se sabe la entrada y la salida, pero nada de lo que hay en la caja.

En realidad, se sabe que hay unas variables con unos valores y ya.
“ustedes no entienden completamente cómo funciona, y sin embargo, ¿la han puesto a disposición de la sociedad?”. Pichai dijo que no es algo grave y es que, alegó que “tampoco creo que entendamos del todo cómo funciona la mente humana”

A la mente humana le atribuimos responsabilidad civil y penal. Si no hay responsabilidad para con sociedad ¿cómo esperamos evitar los comportamientos antisociales?
Estaba de turno un Indio listo
jaja, qué podría salir mal?…
A ver si le ponen ya algún agujero negro a las ia que desarrolle propiedades emergentes inesperadas.....
comentarios cerrados

menéame