Un astrofísico afirmó que la inteligencia artificial es culpable de que no hayamos detectado extraterrestres

2

Un trabajo de investigación sugiere que civilizaciones avanzadas del universo pudieron haberse extinguido después de haber desarrollado una superinteligencia artificial.

Un astrofísico afirmó que la inteligencia artificial es culpable de que no hayamos detectado extraterrestresLa inteligencia artificial es culpable de que no hayamos detectado extraterrestres.

Michael Garret, director del Centro de Astrofísica de Jodrell Bank, afirmó la inteligencia artificial es el gran filtro que hace que las civilizaciones técnicas avanzadas sean escasas en el universo.

En su trabajo de investigación, publicado por la Universidad de Manchester, el astrofísico asegura que dicho filtro surge antes de que estas civilizaciones puedan desarrollar una existencia estable y multiplanetaria y, por ende, se extinguieron.

El paper de Garret explica con ese argumento la razón por la cual el ser humano no encontró, ni recibió, señal alguna de vida inteligente en más de 10.000 millones de años luz exportados del universo.

La inteligencia artificial es culpable de que no hayamos detectado extraterrestres-

La Teoría del Gran Filtro da cuenta de un acontecimiento o situación hipotética que impide que la vida inteligente se convierta en interplanetaria e interestelar, e incluso conduce a su desaparición. El cambio climático, guerras nucleares, impactos de asteroides, explosiones de supernovas, plagas y el desarrollo de una superinteligencia artificial son algunos de los eventos que podrían extinguir una civilización entera.

Garret reconoce en su trabajo que la inteligencia artificial se perfila como uno de los avances tecnológicos más transformadores de la historia de la humanidad. Pero advirtió que las civilizaciones pueden subestimar la velocidad a la que progresan los sistemas de IA, ya que son muy diferentes de las escalas de tiempo tradicionales.

Según el astrofísico, la IA podría significar el fin de la inteligencia en la Tierra antes de que se hayan logrado estrategias de mitigación, por ejemplo, una capacidad multiplanetaria. De esa manera, Garret sugiere que la longevidad típica de una civilización técnica es de 200 años, momento en el que llegan a su extinción.

Con esa afirmación, Garrett explica el gran silencio observado por los proyectos SETI, que tratan de encontrar, hasta ahora sin éxito, vida extraterrestre inteligente.

“En 2014, Stephen Hawking advirtió que el desarrollo de la IA podría significar el fin de la humanidad”, escribió Garrett. “Su argumento era que una vez que los humanos desarrollaran la IA, esta podría evolucionar de forma autónoma, rediseñándose a sí misma a un ritmo cada vez mayor”. De la misma manera, la advertencia de Hawking podría haberse cumplido en otros mundos, dejándonos solos en el universo.

Déjanos tu comentario