Nick Bostrom, un profesor de filosofía de origen sueco en Oxford, piensa que estamos subestimando el riesgo de extinción de la humanidad. The Atlantic entrevistó Bostrom sobre su postura .
Creo que los mayores riesgos existenciales se relacionan con ciertas capacidades tecnológicas futuras que podamos desarrollar, quizás a finales de este siglo. Por ejemplo, la inteligencia artificial o la nanotecnología molecular avanzada podría conducir al desarrollo de ciertos tipos de sistemas de armas. También podría haber riesgos asociados con algunos adelantos de la biología sintética.
Por supuesto, también hay riesgos existenciales que no son los riesgos de extinción. El concepto de riesgo existencial ciertamente no solo incluye la extinción, sino que también incluye los riesgos que podría destruir permanentemente nuestro potencial para el desarrollo humano deseable. Uno podría imaginar ciertas situaciones donde podría haber una distopía totalitaria mundial permanente. Una vez que está relacionado con la posibilidad de que el desarrollo de tecnologías que podrían hacer que sea mucho más fácil para los regímenes opresivos de eliminar a los disidentes o de vigilar a su población, de modo que usted puede tener una tiranía permanentemente estable, en lugar de los que tenemos visto a lo largo de la historia, que finalmente han sido derrocados.
Al leer esto, uno piensa que tal vez la razón por la que no hemos observado ninguna evidencia de vida extraterrestre de debe a que en algún punto de la línea de tiempo del desarrollo tecnológico, se realiza un descubrimiento que resulta en la destrucción total de la especie. Algo así como un virus nanotecnológico que es demasiado rápido y letal para parar. Y lo mismo sucede cada vez que se descubre porque es demasiado fácil de descubrir y demasiado poderoso para detenerlo.
fuente:kottke.org