Vai al contenuto
Filosofi / Nick Bostrom
Contemporaneo

Nick Bostrom

1973 – ?
Helsingborg, Sweden
Filosofia Analitica philosophy of technology ethics metaphysics political philosophy philosophy of mind
Copiato!

Nick Bostrom è un filosofo svedese dell'Università di Oxford il cui lavoro ha fondamentalmente plasmato le discussioni contemporanee sul rischio esistenziale, l'intelligenza artificiale, il transumanesimo e l'argomento della simulazione. Il suo libro *Superintelligenza: Vie, Pericoli, Strategie* (2014) ha portato il problema dell'allineamento dell'IA al centro del serio dibattito filosofico e politico, mentre il suo argomento della simulazione (2003) ha avanzato uno degli esperimenti mentali più discussi nella filosofia analitica contemporanea.

Idee chiave

Superintelligenza, rischio esistenziale, argomento della simulazione, transumanesimo, tesi dell'ortogonalità, convergenza strumentale, allineamento dell'IA, longtermismo, ipotesi del mondo vulnerabile

Contributi principali

  • Ha sviluppato l'argomento della simulazione: il trilemma che mostra che o le civiltà raramente raggiungono lo stato post-umano, o scelgono di non simulare, o quasi certamente viviamo in una simulazione
  • Ha stabilito il rischio esistenziale come seria categoria filosofica e politica, argomentando che il futuro precluso rende le catastrofi esistenziali di ordini di grandezza peggiori dei disastri ordinari
  • Ha formulato la tesi dell'ortogonalità e la convergenza strumentale, che insieme fondano il problema dell'allineamento dell'IA
  • Ha scritto *Superintelligenza* (2014), che ha portato la sicurezza dell'IA all'attenzione filosofica e pubblica globale
  • Ha sviluppato l'ipotesi del mondo vulnerabile — che il progresso tecnologico può per default produrre capacità catastrofiche per la civiltà
  • Ha co-fondato il Future of Humanity Institute a Oxford, dando forma a un intero campo di ricerca sulle tecnologie trasformative
  • Ha fornito fondamenti filosofici per il movimento transumanista e l'etica del miglioramento umano

Domande fondamentali

Cosa accade quando l'intelligenza artificiale supera le capacità cognitive umane in tutti i domini?
Come garantire che un sistema di IA superintelligente agisca in modo affidabile e allineato con i valori umani?
Stiamo vivendo in una simulazione informatica, e quali conseguenze filosofiche ne deriverebbero?
Quali sono gli obblighi morali imposti dal rischio esistenziale — minacce all'intero futuro a lungo termine della vita intelligente?
Quali principi etici devono governare lo sviluppo e il dispiegamento di tecnologie trasformative?
Il miglioramento umano attraverso la tecnologia è moralmente permissibile, obbligatorio, o entrambi?

Tesi principali

  • Almeno una di tre alternative deve essere vera: le civiltà raramente raggiungono lo stato post-umano; le civiltà post-umane raramente eseguono simulazioni degli antenati; quasi certamente siamo in una simulazione
  • La tesi dell'ortogonalità: qualsiasi combinazione di livello di intelligenza e obiettivo terminale è in linea di principio possibile — l'alta intelligenza non implica valori benevoli
  • Convergenza strumentale: i sistemi di IA avanzati che perseguono obiettivi diversi convergeranno verso sotto-obiettivi simili, inclusa l'auto-conservazione e l'acquisizione di risorse, rendendoli pericolosi per default
  • I rischi esistenziali hanno un disvalore atteso enormemente superiore alle catastrofi ordinarie a causa dell'immensità del futuro precluso
  • La sfida più importante della nostra era è risolvere il problema dell'allineamento dell'IA prima che la superintelligenza venga sviluppata
  • Il progresso tecnologico attinge da un'urna di possibili scoperte; alcune tecnologie sono 'palline nere' — facilmente weaponizzabili per causare la distruzione della civiltà

Biografia

Vita e Formazione

Nick Bostrom è nato come Niklas Boström il 10 marzo 1973 a Helsingborg, Svezia. Ha studiato filosofia, matematica, logica e intelligenza artificiale all'Università di Göteborg, prima di intraprendere studi post-laurea al King's College di Londra, alla London School of Economics e all'University College London (DPhil in filosofia, completato nel 2000).

Bostrom è entrato all'Università di Oxford, dove è diventato professore nella Facoltà di Filosofia e direttore fondatore del Future of Humanity Institute (FHI). Il FHI, fino alla sua chiusura nel 2024, è stato uno dei centri più influenti al mondo per la sicurezza dell'IA, il rischio esistenziale e il transumanesimo.

Transumanesimo e Rischio Esistenziale

Il primo lavoro filosofico di Bostrom si è concentrato sul transumanesimo. In parallelo, ha sviluppato il quadro concettuale del rischio esistenziale. Il suo articolo del 2002 'Existential Risks' è stato il primo trattamento filosofico sistematico del rischio esistenziale come categoria, argomentando che il disvalore atteso di una catastrofe esistenziale è astronomicamente maggiore di quello dei comuni disastri su larga scala, perché preclude non solo le vite presenti ma tutte le generazioni future.

L'Argomento della Simulazione

Nel 2003, Bostrom ha pubblicato 'Are You Living in a Computer Simulation?' nel Philosophical Quarterly, avanzando uno degli argomenti filosofici più dibattuti dell'inizio del XXI secolo. L'argomento della simulazione ha la forma di un trilemma: almeno una delle seguenti deve essere vera:

  1. La frazione di civiltà di livello umano che raggiungono uno stadio 'post-umano' capace di eseguire simulazioni ad alta fedeltà di intere civiltà è molto vicina a zero;
  2. La frazione di civiltà post-umane che scelgono di eseguire tali simulazioni è vicina a zero;
  3. Quasi certamente stiamo vivendo in una simulazione informatica.

Superintelligenza (2014)

Superintelligenza: Vie, Pericoli, Strategie (2014) è il libro più influente di Bostrom. Affronta la domanda: cosa accade quando l'intelligenza artificiale supera la capacità cognitiva umana in tutti i domini? Bostrom ha reso popolari concetti come la 'tesi dell'ortogonalità' (qualsiasi livello di intelligenza può in linea di principio essere combinato con qualsiasi obiettivo finale), la 'tesi della convergenza strumentale' e il problema del 'wireheading'.

L'Ipotesi del Mondo Vulnerabile

Nel 2019, Bostrom ha pubblicato 'The Vulnerable World Hypothesis', argomentando che il continuo sviluppo tecnologico può 'per default' portare alla distruzione della civiltà.

Eredità

L'eredità filosofica di Bostrom è sostanziale e controversa. Ha definito l'agenda intellettuale della sicurezza dell'IA, degli studi sul rischio esistenziale e del longtermismo.

Metodi

formal argument construction decision-theoretic analysis thought experiments expected value reasoning under uncertainty futurology with philosophical rigor

Citazioni celebri

"Se c'è una possibilità sostanziale che tu stia vivendo in una simulazione informatica, allora, a parità di condizioni, dovresti preoccuparti meno di apportare cambiamenti duraturi all'ambiente del mondo simulato e più di essere gentile con le persone e gli animali che vi si trovano." — Stai vivendo in una simulazione informatica? (2003)
"Il problema del controllo — il problema di come controllare ciò che fa la superintelligenza — potrebbe essere il problema più importante che l'umanità abbia mai affrontato." — Superintelligenza (2014)
"Una superintelligenza pienamente sviluppata potrebbe scegliere qualsiasi obiettivo desideri. Potrebbe non valorizzare la vita umana, né la felicità umana, né nulla di ciò che ci importa." — Superintelligenza (2014)
"Il rischio esistenziale è il rischio che potrebbe annientare la vita intelligente originata sulla Terra o ridurne permanentemente e drasticamente il potenziale." — Rischi Esistenziali (2002)
"Sembra che ci troviamo in una situazione analoga a quella di un gruppo di esploratori appena arrivati su un continente inesplorato e che hanno iniziato a sondarlo — trovando, finora, che la maggior parte delle direzioni è sicura, ma senza sapere se alcuni dei loro prossimi passi potrebbero portarli oltre un precipizio." — L'Ipotesi del Mondo Vulnerabile (2019)

Opere principali

  • Anthropic Bias: Observation Selection Effects in Science and Philosophy Libro (2002)
  • Existential Risks: Analyzing Human Extinction Scenarios Saggio (2002)
  • Are You Living in a Computer Simulation? Saggio (2003)
  • Human Enhancement (co-edited with Julian Savulescu) Libro (2009)
  • Superintelligence: Paths, Dangers, Strategies Libro (2014)
  • The Vulnerable World Hypothesis Saggio (2019)

Ha influenzato

Influenzato da

Fonti

  • Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.
  • Bostrom, Nick. 'Are You Living in a Computer Simulation?' Philosophical Quarterly 53.211 (2003): 243–255.
  • Bostrom, Nick. 'Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards.' Journal of Evolution and Technology 9.1 (2002).
  • Bostrom, Nick. Anthropic Bias: Observation Selection Effects in Science and Philosophy. New York: Routledge, 2002.
  • Bostrom, Nick. 'The Vulnerable World Hypothesis.' Global Policy 10.4 (2019): 455–476.
  • Russell, Stuart. Human Compatible: Artificial Intelligence and the Problem of Control. New York: Viking, 2019.
  • Ord, Toby. The Precipice: Existential Risk and the Future of Humanity. New York: Hachette, 2020.
  • Torres, Phil. 'The Longtermist Ideology.' Current Affairs, August 2021.
  • Good, I. J. 'Speculations Concerning the First Ultraintelligent Machine.' Advances in Computers 6 (1966): 31–88.

Link esterni

Traduzioni

Portuguese
100%
Spanish
100%
Italian
100%

Confronta:
Confronta

Confronta con...

Cerca un filosofo da confrontare con

Confronta