23 meneos
201 clics
La IA podría ser el límite para todas las civilizaciones avanzadas en el Universo
Un nuevo estudio sugiere que el desarrollo de la Inteligencia Artificial (IA) hacia una Superinteligencia Artificial (ASI) podría explicar por qué no hemos detectado aún otras civilizaciones avanzadas en el cosmos, a pesar de la alta probabilidad de su existencia: en vez de supernovas, plagas, guerras nucleares o eventos climáticos extremos que hayan sido un límite o punto final para esas civilizaciones, dicho tope o "filtro" podría estar impuesto por un desarrollo no regulado de la IA
|
comentarios cerrados
En cualquier caso, si la conclusión es que habría que poner algún tipo de control al desarrollo de las AI, creo que ahí casi todos estamos de acuerdo, el problema es que no creo que sea posible establecer esos límites, algo que tambien asume despues el artículo:
" la regulación de esta nueva tecnología va a ser muy difícil, si no imposible, de lograr. Sin una regulación práctica, hay muchas razones para creer que la IA podría representar una amenaza importante para el rumbo futuro no sólo de nuestra civilización técnica sino de todas las civilizaciones técnicas."
En cualquier caso lo que veo mas destacado del articulo, es lo claro que está que el desarrollo de la IA inevitablemente podrá fin a nuestra civilización, y que la única posibilidad de supervivencia para evitarlo es la colonización de otros planetas.
" El ritmo al que avanza la IA no tiene paralelo histórico, y existe una posibilidad real de que la IA pueda alcanzar un nivel de superinteligencia en unas pocas décadas. Es probable que el desarrollo de ASI se produzca mucho antes de que la humanidad logre establecer una presencia multiplanetaria resistente y duradera en nuestro sistema solar"
" Las escalas de tiempo de longevidad implícitas para los escenarios descritos aquí (aproximadamente 100 a 200 años) subrayan la necesidad de que nuestra propia civilización técnica intensifique los esfuerzos para controlar y regular la IA. La presencia continua de la conciencia en el universo puede depender del éxito de estrictas medidas regulatorias globales."
Inquietante.
...suponiendo que existiera vida fuera de la Tierra, que esa vida fuera inteligente y que esa vida inteligente desarrollara una civilización. Lo cual hasta el momento es muchisísimo suponer. Son tres inmensos saltos exponenciales de los cuales no hay ni rastro del primero de ellos.
Pero pensar que va a cambiar el marco capitalista es lo mismo que pensar que esto se puede regular, no lo veo posible de ninguna forma.
Luego, ni la IA ni la supuesta SIA tienen ni tendrán conciencia de sí misma. Eso para empezar. Y mientras exista quien la controle podrá y deberá exisitr regulación. Si es regulable no hay problema, si existe miedo generalizado o uso inadecuado habrá un problema y serio.
Las IAs no se supone que destruyen civilizaciones, se supone que son una evolución de las civilizaciones, una nueva etapa.
Claro que tendría interés. Lo primero que hace una IA para progresar, es acumular datos. Y una nueva civilización son nuevos datos. Y hablar y contarnos cosas es lo primero que le pedimos a una IA por aqui. Y si acabaron con sus creadores, también les puede interesar acabar con la competencia.