Nick Bostrom
Nick Bostrom es un filósofo sueco de la Universidad de Oxford cuyo trabajo ha moldeado fundamentalmente las discusiones contemporáneas sobre el riesgo existencial, la inteligencia artificial, el transhumanismo y el argumento de la simulación. Su libro *Superinteligencia: Caminos, Peligros, Estrategias* (2014) llevó el problema de la alineación de la IA al centro del debate filosófico y político serio, mientras que su argumento de la simulación (2003) avanzó uno de los experimentos mentales más discutidos de la filosofía analítica contemporánea.
Ideas Clave
Contribuciones Clave
- ● Desarrolló el argumento de la simulación: el trilema que muestra que o las civilizaciones raramente alcanzan el estado posthumano, o eligen no simular, o casi con certeza vivimos en una simulación
- ● Estableció el riesgo existencial como categoría filosófica y política seria, argumentando que el futuro inviabilizado hace que las catástrofes existenciales sean órdenes de magnitud peores que los desastres ordinarios
- ● Formuló la tesis de la ortogonalidad y la convergencia instrumental, que fundamentan conjuntamente el problema de la alineación de la IA
- ● Escribió *Superinteligencia* (2014), que puso la seguridad de la IA en la atención filosófica y pública global
- ● Desarrolló la hipótesis del mundo vulnerable — que el progreso tecnológico puede por defecto producir capacidades catastróficas para la civilización
- ● Cofundó el Future of Humanity Institute en Oxford, dando forma a un campo entero de investigación sobre tecnologías transformadoras
- ● Proporcionó fundamentos filosóficos para el movimiento transhumanista y la ética del mejoramiento humano
Preguntas Fundamentales
Tesis Clave
- ✓ Al menos una de tres alternativas debe ser verdadera: las civilizaciones raramente alcanzan el estado posthumano; las civilizaciones posthumanas raramente ejecutan simulaciones de ancestros; casi con certeza estamos en una simulación
- ✓ La tesis de la ortogonalidad: cualquier combinación de nivel de inteligencia y objetivo terminal es en principio posible — la alta inteligencia no implica valores benevolentes
- ✓ Convergencia instrumental: los sistemas de IA avanzados que persiguen metas diversas convergerán en subobjetivos similares, incluida la autopreservación y la adquisición de recursos, haciéndolos peligrosos por defecto
- ✓ Los riesgos existenciales tienen un desvalor esperado muy superior al de las catástrofes ordinarias a causa de la inmensidad del futuro inviabilizado
- ✓ El desafío más importante de nuestra era es resolver el problema de la alineación de la IA antes de que se desarrolle la superinteligencia
- ✓ El progreso tecnológico extrae de una urna de posibles descubrimientos; algunas tecnologías son 'bolas negras' — fácilmente weaponizables para causar destrucción civilizacional
Biografía
Vida y Formación
Nick Bostrom nació como Niklas Boström el 10 de marzo de 1973 en Helsingborg, Suecia. Estudió filosofía, matemáticas, lógica e inteligencia artificial en la Universidad de Gotemburgo, antes de realizar estudios de posgrado en el King's College de Londres, en la London School of Economics y en el University College London (DPhil en filosofía, completado en 2000).
Bostrom se incorporó a la Universidad de Oxford, donde se convirtió en profesor en la Facultad de Filosofía y director fundador del Future of Humanity Institute (FHI). El FHI, hasta su cierre en 2024, fue uno de los centros más influyentes del mundo en seguridad de la IA, riesgo existencial y transhumanismo.
Transhumanismo y Riesgo Existencial
El trabajo filosófico inicial de Bostrom se centró en el transhumanismo — la visión de que es posible y deseable utilizar la tecnología para potenciar las capacidades humanas más allá de los límites biológicos actuales. En paralelo, desarrolló el marco conceptual del riesgo existencial. Su artículo de 2002 'Existential Risks' fue el primer tratamiento filosófico sistemático del riesgo existencial como categoría, argumentando que el desvalor esperado de una catástrofe existencial es astronómicamente mayor que el de los desastres ordinarios a gran escala, porque inviabiliza no solo las vidas presentes sino todas las generaciones futuras.
El Argumento de la Simulación
En 2003, Bostrom publicó '¿Estás viviendo en una simulación informática?' en Philosophical Quarterly, avanzando uno de los argumentos filosóficos más debatidos de principios del siglo XXI. El argumento de la simulación tiene la forma de un trilema: al menos una de las siguientes debe ser verdadera:
- La fracción de civilizaciones de nivel humano que alcanzan un estadio 'posthumano' capaz de ejecutar simulaciones de civilizaciones enteras es muy cercana a cero;
- La fracción de civilizaciones posthumanas que eligen ejecutar tales simulaciones es cercana a cero;
- Casi con certeza estamos viviendo en una simulación informática.
Superinteligencia (2014)
Superinteligencia: Caminos, Peligros, Estrategias (2014) es el libro más influyente de Bostrom. Aborda la pregunta: ¿qué ocurre cuando la inteligencia artificial supera la capacidad cognitiva humana en todos los dominios? Bostrom popularizó conceptos como la 'tesis de la ortogonalidad' (cualquier nivel de inteligencia puede combinarse con cualquier objetivo final), la 'tesis de la convergencia instrumental' y el problema del 'wireheading'.
La Hipótesis del Mundo Vulnerable
En 2019, Bostrom publicó 'The Vulnerable World Hypothesis', argumentando que el desarrollo tecnológico continuado puede 'por defecto' conducir a la destrucción civilizacional.
Legado
El legado filosófico de Bostrom es sustancial y controvertido. Ha definido la agenda intelectual de la seguridad en IA, los estudios de riesgo existencial y el longtermismo.
Métodos
Citas Notables
"Si existe una posibilidad sustancial de que estés viviendo en una simulación informática, entonces, en igualdad de condiciones, deberías preocuparte menos por hacer cambios duraderos en el entorno del mundo simulado y más por ser amable con las personas y los animales que hay en él." — ¿Estás viviendo en una simulación informática? (2003)
"El problema del control — el problema de cómo controlar lo que hace la superinteligencia — puede ser el problema más importante al que se ha enfrentado la humanidad." — Superinteligencia (2014)
"Una superinteligencia plenamente desarrollada podría elegir cualquier objetivo que quisiera. Podría no valorar la vida humana, ni la felicidad humana, ni nada de lo que nos importa." — Superinteligencia (2014)
"El riesgo existencial es el riesgo que podría aniquilar la vida inteligente originada en la Tierra o reducir permanente y drásticamente su potencial." — Riesgos Existenciales (2002)
"Parecemos estar en una situación análoga a la de un grupo de exploradores que acaban de llegar a un continente inexplorado y han comenzado a sondarlo — descubriendo, hasta ahora, que la mayoría de las direcciones son seguras, pero sin saber si algunos de sus próximos pasos podrían llevarlos al borde de un precipicio." — La Hipótesis del Mundo Vulnerable (2019)
Obras Principales
- Anthropic Bias: Observation Selection Effects in Science and Philosophy Libro (2002)
- Existential Risks: Analyzing Human Extinction Scenarios Ensayo (2002)
- Are You Living in a Computer Simulation? Ensayo (2003)
- Human Enhancement (co-edited with Julian Savulescu) Libro (2009)
- Superintelligence: Paths, Dangers, Strategies Libro (2014)
- The Vulnerable World Hypothesis Ensayo (2019)
Influyó en
- Peter Singer · Contemporáneo/Par
Influenciado por
- Derek Parfit · Influencia Intelectual
Fuentes
- Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.
- Bostrom, Nick. 'Are You Living in a Computer Simulation?' Philosophical Quarterly 53.211 (2003): 243–255.
- Bostrom, Nick. 'Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards.' Journal of Evolution and Technology 9.1 (2002).
- Bostrom, Nick. Anthropic Bias: Observation Selection Effects in Science and Philosophy. New York: Routledge, 2002.
- Bostrom, Nick. 'The Vulnerable World Hypothesis.' Global Policy 10.4 (2019): 455–476.
- Russell, Stuart. Human Compatible: Artificial Intelligence and the Problem of Control. New York: Viking, 2019.
- Ord, Toby. The Precipice: Existential Risk and the Future of Humanity. New York: Hachette, 2020.
- Torres, Phil. 'The Longtermist Ideology.' Current Affairs, August 2021.
- Good, I. J. 'Speculations Concerning the First Ultraintelligent Machine.' Advances in Computers 6 (1966): 31–88.