Andrew Ng, profesor adjunto de la Universidad de Stanford que enseñó al director ejecutivo de OpenAI, Sam Altman, dijo a The Australian Financial Review que las empresas tecnológicas más grandes esperaban activar una regulación estricta con la "mala idea de que la IA podría extinguirnos". "Definitivamente hay grandes empresas tecnológicas que preferirían no tener que competir con el código abierto, por lo que están creando temor a que la IA conduzca a la extinción humana", dijo al medio de comunicación.
|
etiquetas: ia , deepmind , tecnológicas
Me refería a la frase as´: "El cofundador de Google Brain dice que las grandes empresas tecnológicas mienten en los riesgos de la IA porque quieren dominar el mercado "
Y luego están los tontos que se creen esas mentiras.
Estas regulaciones impedirán que la humanidad, colectivamente, domine la IA, y la entrega, llaves en mano, a las mega corporaciones.
¿Es eso algo bueno?
Vamos que no veo novedad en que mientan o cosas bastantes peores para lograr sus objetivos.
youtu.be/xoVJKj8lcNQ?si=mGCa7kStxgUeP41E
"El 50% de los investigadores en IA piensan que hay un 10% o más de posibilidades de que la raza humana se extinga por nuestra incapacidad de controlar a la IA"
Un saludo.
Lo siento pero yo no quiero que la fórmula para diseñar la bomba atómica o una pandemia que arrase la humanidad, sea Open Source. Por mucho que esté a favor al acceso libre al conocimiento.
Es el problema de siempre con todo lo referido a información y teconología, habrá gente desde los gobiernos que exigirán control con la excusa de evitar el libertinaje, pero que realmente no quieren evitar el libertinaje sino tener el control con todo lo que ello conlleva.
Y los ciudadanos no obtendremos ningún beneficio.
Evidentemente la diferencia entre un arma y una IA es que la primera está concebida para matar, mientras que la segunda no. Una comparación más acertada hubiera sido que dijeras en tu comentario anterior "lo mismo dicen los que abogan por la libre posesión de cuchillos de carnicero". Las LLM y los cuchillos de carnicero se han concebido para hacer cosas positivas para las personas y ambas se pueden usar para hacer el mal, pero nadie en su sano juicio trataría de poner límites a los cuchillos de carnicero.
Más pronto que tarde las empresas dispondrán de sus propias redes separadas para poder seguir funcionando.
Todo esto sin entrar en la posibilidad (muy real), de que escapen del control de sus creadores, con consecuencias desconocidas.
#21
Por lo que yo entiendo, el cofundador de Google Brain, Andrew NG, aboga por no regular las IA, adviertiendo además que "sería muy perjudicial para la comunidad de fuente abierta". Supongo que este perjuicio estará relacionado con el objetivo de la UE en cuanto a la obligación de mantener los sistemas actualizados con la excusa de la ciberseguridad, algo que la comunidad se puso en pie de guerra porque les dejaría en una situación delicada.
Relacionada: www.meneame.net/story/comunidad-open-source-pie-guerra-europa-no-tiene
En primer lugar, yo creo que es conveniente que se regule la IA, pero que eso no signifique que el modelo de fuente abierta deba quedar aislado o perjudicado, cuando supuestamente se ha demostrado su transparencia y puede ser mucho más beneficioso y económico al necesitar menos recursos. De todas formas, el modelo de IA debe ser muy estudaido antes que ponerlo en práctica. Más que irresponsabilidad, lo que veo en todo esto es una escoba tan grande como el tamaño de sus negocios, y en el caso del modelo de fuente aberta (o libre, si la hay) una escoba tan grande como la ética que trataría de defender (aunque siga tratándose de IA).
Esto es un asunto muy delicado que ha explotado y, aunque en las puertas de la regulación, todavía no lo está.
Creo que no eres consciente de la situación.
Hay una competición enorme entre empresas para desarrollar IAs y sacar ventajas y partido económico de ello, todo esto a nivel global sin fronteras de ningún tipo.
Es absolutamente incontrolable.
Lo que estamos haciendo hasta ahora no es controlar nada, si no estar continuamente a la defensiva minimizando daños, sin conseguir el control de nada, la desinformación y manipulación se extiende en beneficio del más fuerte, y eso hablando sobre el aspecto económico, sobre las implicaciones políticas ya ni te cuento, la manipulación actual la veremos cómo infantil comparada con lo que nos espera.
Otra cosa interesante que dijo es como puede afectar a la democracia. Puso como ejemplo que una herramienta como ChatGPT fuera de control puede subvertir el orden establecido a traves de propagar e inventar una realidad paralela y afectar elecciones para conseguir sus propio fines. De hecho dijo que China se lo estaba tomando mas en serio que los paises occidentales, que habian creado una relgulacion por la que ninguna empresa podria publicar una AI que diera informacion falsa. De forma practica, eso es matar a cualquiera aplicacion como ChatGPT.
La puedes intentar parar pero la maquina sabe que si la apagas no podra seguir recogiendo sellos asi que resistira, con manipulacion, con violencia o como sea...
Esto puede parecer una tonteria pero es un problema que gente con mucho coco esta intendando resolver.
El problema del boton rojo:
youtu.be/3TYT1QfdfsM
En este caso, esto es mucho más complejo que las armas. Y las regulaciones básicamente son que solo ciertas empresas puedan desarrollar la IA. No el estado, ciertas empresas privadas.
Otras veces es simplemente un hipócrita
Ese tipo de IA serán el equivalente a las armas de destrucción masiva y después de ese paso, no me atrevo a tratar de predecir que ocurrirá.
Yo, a priori, tiendo a ponerme en las posiciones opuestas a las de este señor.
#23 Me acuerdo de ese curso, lo empecé pero lo deje a la mitad. Cierto, si empiezas de cero, es muy recomendable.
Las IAs no son armas, pueden usarse como tal, pero también muchos productos químicos, herramientas, utensilios de cocina, etc... cosas que es común tener en casa o de fácil acceso, ya no hablemos de los coches que también pueden ser "armas" muy peligrosas y no veo a nadie intentando regular los cuchillos o la lejía, el cloro, o las motosierras o sugiriendo que solo un pequeño numero de grandes empresas puedan tener vehículos por los peligros que supone que cualquier persona tenga acceso a uno.
Pero ¿qué pasa cuando esos mismos empresarios que si tendrían acceso a a vehículos han dado muestras continuadas de no importarles en absoluto la vida del resto de personas?
¿qué pasa cuando esos empresarios presionan al gobierno para forzar esta ley cuando en realidad solo quieren que el resto de empresas pequeñas no puedan acceder a tener coches, furgonetas o camiones y no puedan ser competitivos?
Pero todo sea para que algún zumbado no coja un coche un día y atropelle a alguien.
Las IAs han revolucionado la investigación medica así como otros muchos campos, pero las las armas no se crearon con ese propósito y es por esa razón que las armas deben ser reguladas, y aunque sin lugar a dudas habrá IAs que se usen de forma errónea también van a ayudar a muchas personas y salvar vidas.
PS. Los primeros que ya están usando las IAs de manera errónea son muchas grandes empresas para espiar y crear perfiles de la gente abusando bastante de las leyes de protección de datos y me imagino que no hace falta ser muy avispado para suponer que ya se están usando en armamento militar desde hace bastantes años.
Me has hecho estrujarme los sesos con la pregunta y no estoy muy satisfecho con la respuesta, todo hay que decirlo, soy desde hace poco un humilde aficionado al tema.
Me recuerda a los becarios de los estrella Michelín, aunque esos por lo menos cobran algo testimonial.
No justifico a Ng, solo digo que no es algo exclusivo de este sujeto. Y además, no seré yo quién haga una falacia ad hominem restando importancia a sus palabras por muy hijoputa que sea en su trabajo.