Aller au contenu

Future of Life Institute

Un article de Wikipédia, l'encyclopédie libre.

Future of Life Institute
Histoire
Fondation
mars 2014
Cadre
Sigle
(en) FLIVoir et modifier les données sur Wikidata
Type
Forme juridique
Domaine d'activité
Diminution des risques existentiels, notamment de l'intelligence artificielle
Bureau européen
Pays
Coordonnées
Organisation
Fondateurs
Jaan Tallinn, Meia Chita-Tegmark (d), Max Tegmark, Anthony Aguirre (en)Voir et modifier les données sur Wikidata
Président
Personnes clés
Meia Chita-Tegmark (d)Voir et modifier les données sur Wikidata
Chiffre d'affaires
201 329 $ (), 2,1 M$ (), 3,3 M$ (), 2,3 M$ (), 2,7 M$ (), 2,4 M$ (), 482 479 $ (), 549,5 M$ ()Voir et modifier les données sur Wikidata
Site web
Identifiants
IRS
Carte

Future of Life Institute (FLI, Institut pour l'avenir de la vie) est une association à but non lucratif dont les bureaux physiques sont à Bruxelles, Belgique et à Campbell, États-Unis. Sa mission est double :

  1. Diminuer les risques existentiels menaçant l’humanité (ou dits extrêmes à grande échelle), en particulier ceux provenant de l’intelligence artificielle (IA).
  2. Développer des visions optimistes de l'avenir, en particulier des façons positives de développer et d'utiliser de nouvelles technologies[1],[2].

Le travail de FLI comprend notamment l'octroi de subventions, la sensibilisation à l'éducation et le plaidoyer au sein des Nations unies, du gouvernement des États-Unis et des institutions de l'Union européenne.

Le FLI a été fondée en par Max Tegmark, cosmologiste à l'institut MIT, Jaan Tallinn, cofondateur de Skype, Viktoriya Krakovna, chercheuse à DeepMind, Meia Chita-Tegmark, chercheuse postdoctorale à l'Université de Tufts, et Anthony Aguirre, physicien à l'UCSC.

Parmi les consultants de l'institut figurent ou figuraient l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek, l'entrepreneur Elon Musk, ainsi que Alan Alda et Morgan Freeman[3],[4],[5].

Un lourd conflit juridique oppose OpenAI à Elon Musk après que ce dernier ait tenté d'acheter OpenAI ($97 milliards) en février 2025 ; OpenAI reproche à Elon Musk de mener contre l'entreprise une « campagne acharnée » et des actions « malveillantes » destinées à nuire et à entraver ses activités après son succès sans lui[6].
Dans ce cadre, le FLI et d'autres ONG ayant critiqué l'abandon par OpenAI de sa mission initiale, début octobre 2025, une assignation à comparaître (et le président du FLI, Max Tegmark a lui-même reçu une assignation individuelle fin août). Open AI semble accuser le FLI d'avoir contribué à une campagne de Musk contre Open AI. Le FLI a reçu au moins $10 millions de financement d'Elon Musk, avec un dernier financement en . Cet argent a financé la recherche technique et politique sur l'IA, dont un programme de subvention[7] visant à produire « une IA robuste et bénéfique ». Selon le FLI, « Elon Musk n'a aucune contribution dans les activités structurelles de FLI » et FLI a distribué l'argent de Musk à des chercheurs d'IA de premier plan, et reçu en 2021 bien plus d'argent (l'équivalent de 665 millions de dollars en cryptomonnaie) de Vitalik Buterin, ce qui lui permet désormais de financer largement la recherche, le lobbying et la création d'organisations dédiées à la régulation de l'IA[8], comme cela est indiqué dans ses rapports de financement en ligne. De nombreux commentateurs ont estimé qu'OpenAI profite de ce procès pour intimider ses détracteurs en laissant entendre qu’Elon Musk est derrière eux tous, et selon Tyler Whitmer (qui dirige le groupe des avocats et juristes pour la sécurité scientifique et technologique [LASST] qui a aussi reçu une assignation d'OpenAI), ces assignations n'ont pas de liens étroits avec le litige mais « tentent plutôt de tirer parti du litige pour obtenir des informations auxquelles OpenAI n’a pas autrement droit »[9]. »

Opérations

[modifier | modifier le code]

FLI contribue activement à l'élaboration des politiques en matière d'IA.

En Europe, FLI a plaidé avec succès pour l'inclusion de systèmes d'IA plus généraux, tels que GPT-4, dans le règlement sur l'intelligence artificielle de l'UE[10].

Aux Etats-Unis, en octobre 2023, le chef de la majorité au Sénat américain, Chuck Schumer, a invité le FLI à partager son point de vue sur la réglementation de l'IA avec certains sénateurs[11].

FLI plaide activement, aux côtés d'autres organisations, contre les deepfakes (hypertrucages) afin que ceux-ci soient interdits[12] ainsi que contre les robots d'abattage[13].

Subventions de recherches

[modifier | modifier le code]

En 2015, FLI a lancé le premier programme de subventions évalué par les pairs visant à garantir que l'intelligence artificielle (IA) reste sûre, éthique et bénéfique. Lors du premier cycle, FLI a accordé 6,5 millions de dollars à 37 chercheurs[14].

En 2018, le deuxième programme de subventions de la FLI était axé sur la sécurité de l'IA[15]. En 2021, 2022 et 2023, FLI créait un nouveau programme de bourses doctorales[16] et post-doctorales[17] financé par le programmeur russo-canadien Vitalik Buterin[18].

En 2022, FLI subventionnait des projets de recherches spécifiquement afin d'approfondir la compréhension des conséquences d'une guerre nucléaire en se fondant sur des données probantes[19].

En 2024, FLI lançait un appel à propositions pour des recherches évaluant en détail l'impact de l'intelligence artificielle sur les objectifs de développement durable (ODD) relatifs à la pauvreté, aux soins de santé, à l'énergie et au changement climatique, et la manière dont on peut s'attendre à ce qu'elle ait un impact sur ces objectifs dans un avenir proche[20].

La même année, FLI lançait un autre appel à propositions de recherche dans le but de concevoir des mécanismes ou des institutions de gouvernance mondiale dignes de confiance, susceptibles de contribuer à stabiliser un avenir comportant 0, 1 ou plusieurs projets d'intelligence artificielIe générale[21].

Conférences & évènements

[modifier | modifier le code]

Le 24 mai 2014, le FLI organisa une discussion sur l'avenir de la technologie (The Future of Technology: Benefits and Risks) au MIT, modérée par Alan Alda[22],[23],[24]. Les participants étaient George Church (biologiste), Ting Wu (généticien), Andrew McAfee (en) (économiste), Frank Wilczek (physicien) et Jaan Tallinn[25],[26]. La discussion portait sur de nombreux sujets, allant de l'avenir du génie biologique à l'éthique de l'intelligence artificielle et à la singularité[22],[27],[28].

Du 2 au 5 janvier 2015, le FLI organisa et hébergea la conférence « The Future of AI: Opportunities and Challenges » (L’avenir de l’IA : opportunités et défis), avec pour objectif d'identifier les directions de recherche les plus prometteuses pour bénéficier des avantages de l'IA[29]. Durant la conférence, l'institut fit circuler une lettre ouverte sur l'intelligence artificielle qui fut par la suite signée par Stephen Hawking, Elon Musk, et de nombreux autres experts dont une centaine de sommités du monde de l'IA[30].

En 2017, la conférence d'Asilomar sur l'IA bénéfique, en Californie[31], un rassemblement privé que le New York Times a appelé "les gros noms de l'IA" (y compris Yann LeCun, Elon Musk et Nick Bostrom). L'institut a publié un ensemble de principes pour le développement responsable de l'IA, issus des discussions de la conférence et signés par Yoshua Bengio, Yann LeCun et de nombreux autres chercheurs en IA[32]. Ces principes ont pu influencer la réglementation de l'intelligence artificielle et des initiatives ultérieures, telles que les principes de l'OCDE sur l'intelligence artificielle.

En 2019, la conférence bénéfique de l'intelligence artificielle générale à Porto Rico (2019)[33], avait pour objectif de répondre à des questions de long terme afin de garantir que l'intelligence artificielle générale soit bénéfique pour l'humanité[34].

Récompenses

[modifier | modifier le code]

Le prix "Future of Life" rend hommage à des personnes qui, sans avoir bénéficié d'une grande reconnaissance au moment de leurs réalisations, ont contribué à rendre le monde d'aujourd'hui bien meilleur qu'il n'aurait pu l'être autrement[35].

Le prix a été attribué :

Lettres ouvertes

[modifier | modifier le code]

Lettre ouverte sur les armes autonomes létales

[modifier | modifier le code]

En 2018, FLI a rédigé une lettre appelant à l'adoption de "lois contre les armes autonomes létales". Parmi les signataires figuraient Elon Musk, Demis Hassabis, Shane Legg et Mustafa Suleyman[43].

Lettre ouverte sur une pause dans l'IA

[modifier | modifier le code]

En mars 2023, FLI a publié une lettre ouverte appelant à une pause dans le développement de systèmes d'IA plus puissants que le GPT-4[14],[44].

Lettre ouverte pour les dirigeants mondiaux

[modifier | modifier le code]

En 2024, Max Tegmark, président de la FLI, a publié une lettre avec Mary Robinson, présidente de l'ONG Global Elders, dans Le Monde, exhortant les dirigeants mondiaux à prendre des mesures urgentes face aux menaces existentielles[45].

Références

[modifier | modifier le code]
  1. (en) « Transcending Complacency on Superintelligent Machines », Huffington Post, (consulté le ).
  2. (en) « CSER News: 'A new existential risk reduction organisation has launched in Cambridge, Massachusetts' », Centre for the Study of Existential Risk, (consulté le ).
  3. (en) « But What Would the End of Humanity Mean for Me? », The Atlantic, (consulté le ).
  4. (en) « Who we are », Future of Life Institute (consulté le ).
  5. (en) « Our science-fiction apocalypse: Meet the scientists trying to predict the end of the world », Salon (consulté le ).
  6. « La société OpenAI réplique à Elon Musk en portant plainte à son tour contre le milliardaire », Le Monde,‎ (lire en ligne, consulté le ).
  7. « Future of Life Institute (FLI) has announced funding of 37 research projects through the new Elon-Musk-backed program | The Center for Brains, Minds & Machines », sur cbmm.mit.edu (consulté le )
  8. (en) « The little-known AI group that got $660 million », sur POLITICO, (consulté le )
  9. (en) « OpenAI accused of using legal tactics to silence nonprofits », sur NBC News, (consulté le )
  10. (en) « EU artificial intelligence act not ‘futureproof’, experts warn MEPs », sur Science|Business (consulté le )
  11. (en-US) Nihal Krishan, « Sen. Chuck Schumer’s second AI Insight Forum covers increased R&D funding, immigration challenges and safeguards », sur FedScoop, (consulté le )
  12. (en) « Ban Deepfakes », sur bandeepfakes.org (consulté le )
  13. (en-US) « Educating about Lethal Autonomous Weapons », sur Future of Life Institute (consulté le )
  14. a et b (en-US) « Pause Giant AI Experiments: An Open Letter », sur Future of Life Institute (consulté le )
  15. FLI, « 2018 AGI Safety Grant Program »
  16. (en-US) « PhD Fellowships », sur Future of Life Institute (consulté le )
  17. (en-US) « Postdoctoral Fellowships », sur Future of Life Institute (consulté le )
  18. (en-US) « FLI June 2021 Newsletter », sur Future of Life Institute (consulté le )
  19. (en-US) « Nuclear War Research », sur Future of Life Institute (consulté le )
  20. (en-US) « Call for proposals evaluating the impact of AI on Poverty, Health, Energy and Climate SDGs », sur Future of Life Institute (consulté le )
  21. (en-US) « Call for proposed designs for global institutions governing AI », sur Future of Life Institute (consulté le )
  22. a et b (en) « Is Artificial Intelligence a Threat? », Chronicle of Higher Education (consulté le ).
  23. (en) « Events », Future of Life Institute (consulté le ).
  24. (en) « Machine Intelligence Research Institute - June 2014 Newsletter » (consulté le ).
  25. (en) « FHI News: 'Future of Life Institute hosts opening event at MIT' », Future of Humanity Institute, (consulté le ).
  26. (en) « The Future of Technology: Benefits and Risks », Personal Genetics Education Project, (consulté le ).
  27. (en) « Top 23 One-liners From a Panel Discussion That Gave Me a Crazy Idea », Diana Crow Science, (consulté le ).
  28. (en) « The Future of Technology: Benefits and Risks », MIT Tech TV, (consulté le ).
  29. (en) « The Future of AI: Opportunities and Challenges », Future of Life Institute (consulté le )
  30. (en) « Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter », Future of Life Institute
  31. (en-US) « Beneficial AI 2017 », sur Future of Life Institute (consulté le )
  32. (en-US) « Asilomar AI Principles », sur Future of Life Institute (consulté le )
  33. (en-US) « Beneficial AGI 2019 », sur Future of Life Institute (consulté le )
  34. « CSER at the Beneficial AGI 2019 Conference », sur www.cser.ac.uk (consulté le )
  35. (en-US) « Future of Life Award », sur Future of Life Institute (consulté le )
  36. (en-US) « Future Of Life Award 2017 », sur Future of Life Institute (consulté le )
  37. (en-US) « Future Of Life Award 2018 », sur Future of Life Institute (consulté le )
  38. (en-US) « Future Of Life Award 2019 », sur Future of Life Institute (consulté le )
  39. (en-US) « Future Of Life Award 2020 », sur Future of Life Institute (consulté le )
  40. (en-US) « Future Of Life Award 2021 », sur Future of Life Institute (consulté le )
  41. (en-US) « Future Of Life Award 2022 », sur Future of Life Institute (consulté le )
  42. (en-US) « Future Of Life Award 2023 », sur Future of Life Institute (consulté le )
  43. NPR, « AI Innovators Take Pledge Against Autonomous Killer Weapons »
  44. Andrei Stiru, « Elon Musk, Steve Wozniak et des centaines d'autres appellent à ralentir la recherche sur l'IA », sur Business AM, (consulté le )
  45. « Crise climatique, pandémies, armes nucléaires ou risques liés à l’IA révèlent le manque de vision de trop de leaders contemporains », Le Monde.fr,‎ (lire en ligne, consulté le )

Articles dans les médias

[modifier | modifier le code]

Articles connexes

[modifier | modifier le code]

Liens externes

[modifier | modifier le code]