Activistas alrededor del mundo se manifiestan para frenar los avances de la IA, aunque no sepan cómo

Las protestas del grupo de activistas PauseAI están en curso en Londres, Nueva York, San Francisco y otras partes del mundo. Sus integrantes tienen opiniones muy diferentes sobre lo que la organización debe realizar para proteger a la humanidad de la IA.
Manifestantes del grupo PauseAI
Manifestantes del grupo PauseAI.PauseAI vía Facebook/Holly Elmore

El lunes, en una calle secundaria frente a la sede del Ministerio de Ciencia, Innovación y Tecnología, en el centro de Londres (Reino Unido), una veintena de manifestantes se organiza para lanzar sus cantos de protesta.

“¿Qué queremos? ¡Una IA segura! ¿Cuándo la queremos?”. Los manifestantes dudan. “¿Más adelante?”, propone alguien.

El grupo compuesto en su mayoría por hombres jóvenes se reúne durante un momento antes de entonar un nuevo himno. “¿Qué queremos? ¡Pausa a la IA! ¿Cuándo lo queremos? Ahora”.

Estos manifestantes forman parte de Pause AI, un grupo de activistas que pide a las empresas que detengan el desarrollo de grandes modelos de inteligencia artificial (IA) ya que temen que impliquen un riesgo para el futuro de la humanidad.

Otras protestas de PauseAI están teniendo lugar en otras partes del mundo: en San Francisco, Nueva York, Berlín, Roma, Ottawa y un puñado de ciudades más.

Su objetivo es captar la atención de votantes y políticos antes de la Cumbre de Inteligencia Artificial de Seúl, continuación de la Cumbre de Seguridad de la IA (AI Safety Summit 2023) celebrada en el Reino Unido en noviembre de 2023. Pero el propio grupo de manifestantes, organizado de forma poco estructurada, todavía está averiguando cuál es exactamente la mejor forma de comunicar su mensaje.


Jason Matheny, director ejecutivo del influyente grupo de expertos Rand Corporation
Jason Matheny, director general del influyente think tank Rand Corporation, asegura que los avances en IA están facilitando el aprendizaje de cómo construir armas biológicas y otras herramientas de destrucción.

Pensar en los peligros de la IA a largo plazo

“En realidad, la Cumbre no condujo a una normativa significativa”, opina Joep Meindertsma, fundador de PauseAI. Los asistentes a la conferencia acordaron la “Declaración de Bletchley (Bletchley Declaration)”, pero ese acuerdo no significa mucho, afirma Meindertsma. “Es solo un pequeño primer paso, y lo que necesitamos son tratados internacionales vinculantes”.

La principal exigencia del grupo es una pausa en el entrenamiento de sistemas de IA más potentes que GPT-4: solicita que todos los países apliquen esta medida, pero señala específicamente a Estados Unidos como sede de la mayoría de los principales laboratorios de IA. El grupo también quiere que todos los Estados miembros de la ONU firmen un tratado que establezca una agencia internacional de seguridad de la IA responsable de autorizar nuevas implementaciones de sistemas y entrenamientos de grandes modelos. Sus protestas tienen lugar el mismo día en que OpenAI anuncia una nueva versión de ChatGPT para que el chatbot actúe más como un humano.

“Ya hemos prohibido tecnología a nivel internacional antes”, señala Meindertsma, aludiendo al Protocolo de Montreal, un acuerdo mundial firmado en 1987 que supuso la eliminación progresiva de los clorofluorocarbonos y otras sustancias químicas conocidas por destruir la capa de ozono. “Tenemos tratados que prohíben las armas láser cegadoras. Soy bastante optimista sobre la posibilidad de hacer una pausa [para la IA]”.

Un manifestante de la marcha de Londres, Oliver Chamberlain, declara que no está seguro de que sea probable que las compañías se comprometan a detener sus investigaciones sobre IA, pero se siente tan preocupado por el futuro que se vio obligado a protestar. Solo una regulación sustancial de la IA le haría sentirse más optimista sobre la situación, asevera.

También está la cuestión sobre el modo en que PauseAI debe lograr sus objetivos. En el Discord del grupo, algunos miembros debatieron la idea de organizar concentraciones en las sedes de los desarrolladores de IA. OpenAI, en particular, se ha convertido en un punto central de las acciones de protesta. En febrero, las manifestaciones de Pause AI se celebraron frente a las oficinas de OpenAI en San Francisco, después de que la empresa cambiara sus políticas de uso para eliminar la prohibición de aplicaciones militares y bélicas para sus productos.

Un miembro del grupo de Discord preguntó si sería demasiado perturbador que las protestas organizaran plantones o se encadenaran a las puertas de las instalaciones de los desarrolladores de IA. “Probablemente no. Hacemos lo que tenemos que hacer, al fin y al cabo, por un futuro con humanidad, mientras podamos”.

Meindertsma se había preocupado por las consecuencias de la IA tras leer Superintelligence, un libro de 2014 del filósofo Nick Bostrom que popularizó la idea de que los sistemas de IA muy avanzados quizá supongan un riesgo para la existencia humana en su totalidad. Joseph Miller, organizador de la protesta de PauseAI en Londres, se sintió inspirado de forma similar.

Fue el lanzamiento del gran modelo de lenguaje Chat-GPT 3 de OpenAI en 2020 lo que realmente inquietó a Miller sobre la trayectoria que llevaba la inteligencia artificial. “De repente me di cuenta de que no se trataba de un problema para un futuro lejano, sino de algo en lo que la IA se está volviendo verdaderamente buena ahora”, señala. Miller se unió a una organización sin fines de lucro dedicada a la investigación de la seguridad de la IA y más tarde se involucró con PauseAI.

Las ideas de Bostrom han influido en la comunidad del “altruismo eficaz”, un amplio movimiento social que incluye a los partidarios del largoplacismo: la idea de que influir en el futuro a largo plazo debería ser una prioridad moral de los humanos de hoy. Aunque muchos de los organizadores de PauseAI tienen sus raíces en el movimiento del altruismo eficaz, están deseosos de ir más allá de la filosofía y conseguir más apoyo para su causa.

Holly Elmore, directora de Pause AI en Estados Unidos, desea que el movimiento sea una “iglesia extensa” que incluya a artistas, escritores y propietarios de derechos de autor, cuyos sustentos corren peligro a causa de los sistemas de IA que imitan obras creativas. “Soy utilitarista. Pienso en las consecuencias en última instancia, pero la injusticia que de verdad me impulsa a hacer esta clase de activismo es la falta de consentimiento” de las empresas que producen modelos de IA, resalta.

“No tenemos que elegir qué daño de la IA es el más importante cuando hablamos de la pausa como solución. La pausa es la única solución que los aborda a todos”.

Miller coincidió con este punto. Comenta que ha hablado con artistas cuyos sustentos se han visto afectados por el crecimiento de los generadores de arte de IA. “Son problemas que hoy son reales, y son señales de cosas mucho más peligrosas que están por venir”.


Sam Altman
La Junta de Seguridad de Inteligencia Artificial de Estados Unidos contribuirá en el diseño de pautas y estándares para garantizar el uso seguro de la IA en el país.

Acciones necesarias para proteger a la humanidad de la IA

Uno de los manifestantes de Londres, Gideon Futerman, lleva una pila de folletos que intenta repartir a los funcionarios que salen del edificio de enfrente. Lleva protestando con el grupo desde el año pasado. “La idea de que es posible una pausa ha arraigado mucho desde entonces”, afirma.

Futerman es optimista respecto a que los movimientos de protesta influyen en la trayectoria de las nuevas tecnologías. Señala que las manifestaciones contra los organismos modificados genéticamente fueron decisivas para que Europa rechazara esta tecnología en los noventa. Lo mismo puede decirse de la energía nuclear. No es que estos movimientos tuvieran necesariamente las ideas correctas, señala, pero demuestran que las protestas populares son capaces de obstaculizar el camino incluso de tecnologías que prometen energía con bajas emisiones de carbono o cosechas más abundantes.

En Londres, el grupo de manifestantes cruza la calle para repartir panfletos a un grupo de funcionarios que salen de las oficinas del gobierno. La mayoría parecen desinteresados, pero algunos aceptan una hoja. Ese mismo día, Rishi Sunak, el primer ministro de Reino Unido que seis meses antes había celebrado la primera Cumbre sobre la Seguridad de la IA, había pronunciado un discurso en el que hizo un guiño a los temores que suscita esta tecnología. Pero tras esa referencia pasajera, se centró firmemente en los beneficios potenciales.

Los dirigentes de Pause AI con los que habló WIRED comentaron que, por ahora, no se plantean acciones directas más disruptivas, como plantones o campamentos cerca de las oficinas de empresas de IA. “Nuestras tácticas y métodos son en realidad muy mesurado”, asegura Elmore. “Quiero ser el punto de partida moderado de muchas organizaciones. Estoy segura de que nunca aprobaríamos la violencia. También quiero que Pause AI vaya más allá y sea digna de confianza”.

Meindertsma está de acuerdo y opina que en este momento no se justifican más acciones disruptivas. “Espero de verdad que no tengamos que emprender otras medidas. No pretendo que tengamos que hacerlo. No me siento la clase de persona que lidera un movimiento que no es completamente legítimo”.

El fundador de Pause AI también confía en que su movimiento consiga deshacerse de la etiqueta de “doomer (fatalista) de la IA. Un doomer es alguien que se rinde ante la humanidad”, resalta. “Soy una persona optimista; creo que podemos hacer algo al respecto”.

Artículo publicado originalmente en WIRED. Adaptado por Andrei Osornio.