Future of Humanity Institute

Future of Humanity Institute
Logo du Future of Humanity Institute
Logo du Future of Humanity Institute
Situation
Création 2005
Dissolution 16 avril 2024
Siège Oxford, Angleterre
Organisation
Directeur Nick Bostrom
Organisations affiliées Faculté de Philosophie (en), université d'Oxford

Site web fhi.ox.ac.uk

Le Future of Humanity Institute (FHI, Institut pour l'avenir de l'Humanité) était un centre de recherche interdisciplinaire de l'université d'Oxford, se consacrant aux questions concernant l'humanité et son avenir. Il fut fondé en 2005 comme une unité de la faculté de philosophie et de l'Oxford Martin School (en)[1]. Dirigé par le philosophe Nick Bostrom, son équipe de recherche inclut le futurologue Anders Sandberg, l'ingénieur Kim Eric Drexler, l'économiste Robin Hanson, et Toby Ord, le fondateur de Giving What We Can[2]. Il a été fermé le 16 avril 2024 du fait d'obstacles administratifs[3].

Partageant des locaux et travaillant en collaboration avec le Centre for Effective Altruism[4], l’objectif de l’Institut était d’orienter les recherches vers le plus grand bien pour l’humanité à long terme[5],[6]. Il était engagé dans des activités académiques, mais aussi dans la promotion de discussions et d’analyses informées au sein d’organisations gouvernementales, commerciales, et autres.

Nick Bostrom a créé l’Institut en novembre 2005, comme une unité de l'Oxford Martin School (en) (à l'époque, la James Martin 21st Century School)[1]. Entre 2008 et 2010, le FHI hébergea la conférence sur les risques de catastrophe planétaire, écrivit 22 articles pour des journaux académiques, et publia 34 chapitres dans des ouvrages collectifs ; les chercheurs du FHI ont été mentionnés plus de 5 000 fois dans les médias[7], et il a fourni des analyses et des conseils au forum économique mondial, à des organisations privées ou à but non lucratif, comme la fondation MacArthur, et l'Organisation mondiale de la santé), ainsi qu'à des organisations gouvernementales en Suède, à Singapour, en Belgique, au Royaume-uni, et aux États-unis. Nick Bostrom et le bioéthiste Julian Savulescu (en) ont également publié Human Enhancement en mars 2009[8]. Plus récemment, le FHI s'est concentré sur les dangers de l'intelligence artificielle (forte). En 2014, ses chercheurs ont publié plusieurs livres sur les risques créés par l'IA, parmi lesquels Smarter Than Us, de Stuart Armstrong, et Superintelligence : Paths, Dangers, Strategies, de Nick Bostrom[9],[10].

Risques existentiels

[modifier | modifier le code]

Les sujets les plus vastes étudiés par le FHI sont les risques de catastrophe planétaire, et en particulier les « risques existentiels ». Dans un article de 2002, Nick Bostrom définit un risque existentiel comme « un évènement qui annihilerait la vie intelligente sur Terre ou réduirait son potentiel de façon drastique et permanente »[11]. Cela englobe des scénarios dans lesquels l'humanité, sans être détruite, échoue à coloniser l'espace et à utiliser les ressources de l'univers observable, comme Bostrom l'expose en 2003 dans son article sur le coût des opportunités manquées[12].

Dans leur livre de 2008, Global Catastrophic Risks, Bostrom et Milan Ćirković réunissent des essais sur de nombreux risques de catastrophes, naturelles ou créées par l'homme. Les risques naturels, comme le super-volcanisme, les impacts cosmiques, ou encore des évènements astronomiques très énergétiques comme les sursauts gamma ou les supernovas, présentent un risque faible et assez bien compris[13],[6], c'est pourquoi le FHI s'intéresse surtout aux risques technologiques tels que le réchauffement climatique, la guerre nucléaire, ou les risques présentées par les nanotechnologies et l'intelligence artificielle, ainsi qu'aux pandémies que pourraient provoquer des armes biologiques. Les chercheurs du FHI ont également étudié l’impact du progrès technologique sur les sociétés et les institutions, allant du totalitarisme à la montée du chômage, et aux risques liés à l’information[14].

Raisonnements anthropiques

[modifier | modifier le code]

Le FHI accorde beaucoup d’attention à des menaces exotiques qui ont été peu explorées par d’autres organisations, et aux considérations méthodologiques permettant la prévision et la réduction des risques existentiels. L’Institut a particulièrement insisté sur l’importance dans ce contexte de « raisonnements anthropiques », un domaine encore mal exploré ayant des implications épistémologiques très générales.

Parmi les arguments anthropiques étudiés par le FHI, l'argument de l'apocalypse affirme que l'humanité devrait s'éteindre bientôt, parce que le plus probable est que les humains vivant actuellement sont près du milieu de la distribution des humains qui auront existé[13]. Nick Bostrom a également proposé l’« argument de la simulation », qui suggère que si nos chances d'éviter les risques existentiels sont élevées, il est probable que nous vivions dans une réalité simulée[15].

Un autre thème récurrent chez les chercheurs du FHI est le paradoxe de Fermi, c’est-à-dire l’absence surprenante de civilisations extraterrestres observables. Robin Hanson en a déduit l’existence d’un « grand filtre » empêchant la colonisation de l’espace, filtre qui pourrait avoir agi dans le passé (si l’intelligence est beaucoup plus rare que nous le pensons) ou dans notre avenir (si les risques existentiels sont suffisamment importants).

Transhumanisme et rationalité

[modifier | modifier le code]

En liaison étroite avec le travail du FHI sur l’évaluation des risques dus à de nouvelles technologies figurent des travaux sur les promesses et les dangers d’améliorations des êtres humains. Ces modifications peuvent être biologiques, sociologiques, ou utiliser des ressources informatiques ; les études portent surtout sur les hypothèses les plus radicales, plutôt que sur des progrès prévisibles à court terme. Ainsi, les recherches du FHI en bioéthique étudient les conséquences potentielles de la thérapie génique, mais aussi des implants cérébraux et des interfaces neuronales, ainsi que du téléchargement de l'esprit[16].

FHI a également mis l’accent sur les méthodes permettant d’évaluer et d’améliorer l’intelligence et la rationalité, afin de diriger et d’accélérer les progrès sociaux et technologiques. Le travail du FHI sur les sources d’irrationalité, comme les heuristiques de jugement et les biais cognitifs, inclut en particulier une collaboration permanente avec Amlin (en) pour l'étude des risques systémiques découlant de biais dans les modèles utilisés[17],[18].

Choix de publications

[modifier | modifier le code]

Notes et références

[modifier | modifier le code]


  1. a et b (en) « Humanity's Future: Future of Humanity Institute », sur Oxford Martin School (consulté le )
  2. (en) « Staff », sur Future of Humanity Institute (consulté le ).
  3. (en) Emanuel Maiberg ·, « Institute That Pioneered AI ‘Existential Risk’ Research Shuts Down », sur 404 Media, (consulté le )
  4. (en) Site du Centre for Effective Altruism
  5. (en) « About FHI », sur Future of Humanity Institute (consulté le ).
  6. a et b (en) Ross Andersen, « Omens », sur Aeon Magazine, (consulté le )
  7. (en) « Recherche sur Google News », Google News,‎ (lire en ligne, consulté le ).
  8. (en) Nick Bostrom, « Achievements Report: 2008-2010 », Future of Humanity Institute,‎ (lire en ligne, consulté le ).
  9. (en) Mark Piesing, « AI uprising: humans will be outsourced, not obliterated », Wired,‎ (lire en ligne, consulté le ).
  10. (en) Sean Coughlan, « How are humans going to become extinct? », BBC News,‎ (lire en ligne, consulté le ).
  11. (en) Nick Bostrom, « Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards » [« Risques existentiels : analyse de scénarios d'extinction de l'humanité et de risques associés »], Journal of Evolution and Technology, vol. 15, no 3,‎ , p. 308-314 (lire en ligne, consulté le ).
  12. (en) Nick Bostrom, « Astronomical Waste: The Opportunity Cost of Delayed Technological Development », Utilitas, vol. 15, no 3,‎ , p. 308–314 (DOI 10.1017/s0953820800004076, lire en ligne, consulté le ).
  13. a et b (en) Ross Andersen, « We're Underestimating the Risk of Human Extinction », The Atlantic,‎ (lire en ligne, consulté le ).
  14. (en) Nick Bostrom, « Information Hazards: A Typology of Potential Harms from Knowledge », sur Future of Humanity Institute (consulté le ).
  15. (en) John Tierney, « Even if Life Is a Computer Simulation... », The New York Times,‎ (lire en ligne, consulté le )
  16. (en) Anders Sandberg and Nick Bostrom, « Whole Brain Emulation: A Roadmap », sur Future of Humanity Institute (consulté le )
  17. (en) « Amlin and Oxford University launch major research project into the Systemic Risk of Modelling », Amlin, (consulté le )
  18. (en) « Amlin and Oxford University to collaborate on modelling risk study », Continuity, Insurance & Risk Magazine,‎ (lire en ligne, consulté le )

Liens externes

[modifier | modifier le code]