Le Future of Life Institute (FLI, Institut pour l'avenir de la vie) est une association à but non lucratif dont les bureaux physiques sont à Bruxelles, Belgique et à Campbell, Etats-Unis. Sa mission est double :
développer des visions optimistes de l'avenir, en particulier des façons positives de développer et d'utiliser de nouvelles technologies[1],[2].
Le travail de FLI comprend notamment l'octroi de subventions, la sensibilisation à l'éducation et le plaidoyer au sein des Nations Unies, du gouvernement des États-Unis et des institutions de l'Union européenne.
FLI a été fondée en mars 2014 par Max Tegmark, cosmologiste à l'institut MIT, Jaan Tallinn, cofondateur de Skype, Viktoriya Krakovna, chercheuse à DeepMind, Meia Chita-Tegmark, chercheuse postdoctorale à l'université de Tufts, et Anthony Aguirre, physicien à l'UCSC.
Aux Etats-Unis, en octobre 2023, le chef de la majorité au Sénat américain, Chuck Schumer, a invité le FLI à partager son point de vue sur la réglementation de l'IA avec certains sénateurs[7].
En 2015, FLI a lancé le premier programme de subventions évalué par les pairs visant à garantir que l'intelligence artificielle (IA) reste sûre, éthique et bénéfique. Lors du premier cycle, FLI a accordé 6,5 millions de dollars à 37 chercheurs[10].
En 2018, le deuxième programme de subventions de la FLI était axé sur la sécurité de l'IA[11]. En 2021, 2022 et 2023, FLI créait un nouveau programme de bourses doctorales[12] et post-doctorales[13] financé par le programmeur russo-canadien Vitalik Buterin[14].
En 2022, FLI subventionnait des projets de recherches spécifiquement afin d'approfondir la compréhension des conséquences d'une guerre nucléaire en se fondant sur des données probantes[15].
En 2024, FLI lançait un appel à propositions pour des recherches évaluant en détail l'impact de l'intelligence artificielle sur les objectifs de développement durable (ODD) relatifs à la pauvreté, aux soins de santé, à l'énergie et au changement climatique, et la manière dont on peut s'attendre à ce qu'elle ait un impact sur ces objectifs dans un avenir proche[16].
La même année, FLI lançait un autre appel à propositions de recherche dans le but de concevoir des mécanismes ou des institutions de gouvernance mondiale dignes de confiance, susceptibles de contribuer à stabiliser un avenir comportant 0, 1 ou plusieurs projets d'intelligence artificielIe générale[17].
Du 2 au 5 janvier 2015, le FLI organisa et hébergea la conférence « The Future of AI: Opportunities and Challenges » (L’avenir de l’IA : opportunités et défis), avec pour objectif d'identifier les directions de recherche les plus prometteuses pour bénéficier des avantages de l'IA[25]. Durant la conférence, l'institut fit circuler une lettre ouverte sur l'intelligence artificielle qui fut par la suite signée par Stephen Hawking, Elon Musk, et de nombreux autres experts dont une centaine de sommités du monde de l'IA[26].
En 2017, la conférence d'Asilomar sur l'IA bénéfique, en Californie[27], un rassemblement privé que le New York Times a appelé "les gros noms de l'IA" (y compris Yann LeCun, Elon Musk et Nick Bostrom). L'institut a publié un ensemble de principes pour le développement responsable de l'IA, issus des discussions de la conférence et signés par Yoshua Bengio, Yann LeCun et de nombreux autres chercheurs en IA[28]. Ces principes ont pu influencer la réglementation de l'intelligence artificielle et des initiatives ultérieures, telles que les principes de l'OCDE sur l'intelligence artificielle.
En 2019, la conférence bénéfique de l'intelligence artificielle générale à Porto Rico (2019)[29], avait pour objectif de répondre à des questions de long terme afin de garantir que l'intelligence artificielle générale soit bénéfique pour l'humanité[30].
Le prix "Future of Life" rend hommage à des personnes qui, sans avoir bénéficié d'une grande reconnaissance au moment de leurs réalisations, ont contribué à rendre le monde d'aujourd'hui bien meilleur qu'il n'aurait pu l'être autrement[31].
en 2018, à la famille du défunt Stanilas Petrov dont le jugement courageux le 26 septembre 1983 a probablement permis d'éviter une frappe nucléaire pendant la guerre froide, qui aurait pu facilement dégénérer en un conflit nucléaire ouvert[33] ;
En 2024, Max Tegmark, président de la FLI, a publié une lettre avec Mary Robinson, présidente de l'ONG Global Elders, dans Le Monde, exhortant les dirigeants mondiaux à prendre des mesures urgentes face aux menaces existentielles[40].
↑« Crise climatique, pandémies, armes nucléaires ou risques liés à l’IA révèlent le manque de vision de trop de leaders contemporains », Le Monde.fr, (lire en ligne, consulté le )