Anthropic
| Fondation |
|---|
| Type | |
|---|---|
| Forme juridique | |
| Domaines d'activité | |
| Siège | |
| Pays |
| Effectif |
500 employés () |
|---|---|
| Fondateurs |
Dario Amodei, Daniela Amodei, Chris Olah (en), Jared Kaplan (en) |
| Produit | |
| Site web |
(en) www.anthropic.com |
| OpenCorporates |
|---|
Anthropic est une entreprise américaine d'intelligence artificielle (IA) fondée en 2021 par d'anciens membres d'OpenAI[1],[2]. Elle développe Claude, une famille de grands modèles de langage, et est aussi connue pour ses recherches en sécurité de l'IA, particulièrement en interprétabilité. En 2023, Amazon et Google investissent plusieurs milliards de dollars dans Anthropic[3].
Historique
[modifier | modifier le code]Anthropic est fondée en 2021 par d'anciens membres seniors d'OpenAI dont Daniela et Dario Amodei, ce dernier ayant été vice-président de la recherche d'OpenAI[4],[5],[6]. Cette décision de quitter OpenAI aurait notamment été motivée par des désaccords sur la vision stratégique d'OpenAI[7].
En mai 2024, Mike Krieger, cofondateur d'Instagram et d'Artifact, rejoint la start-up. À la même période, l'ancien responsable de la sécurité d'OpenAI, Jan Leike, rejoint également Anthropic, suivi par un autre cofondateur d'OpenAI, John Schulman, en août. En octobre 2024, Durk Kingma, lui aussi cofondateur d'OpenAI, rejoint Anthropic[8].
En septembre 2025, le groupe annonce interdire aux entités sous contrôle majoritairement chinois d'accéder à ses services d'IA[9].
En décembre 2025, Anthropic acquiert Bun pour plus de rapidité, une meilleure stabilité et de nouvelles capacités dans Claude Code[10].
Anthropic accepte de verser 1,5 milliard de dollars à un fonds d'indemnisation pour mettre fin à des poursuites liées au téléchargement illégal de millions de livres servant à entraîner son IA, Claude. Bien que la justice autorise l'entraînement sur des œuvres protégées au nom de l'« usage équitable », la start-up est sanctionnée pour avoir utilisé des sources pirates au lieu d'acheter les ouvrages[11].
Le 18 novembre 2025, Nvidia et Microsoft annoncent investir massivement dans Anthropic, avec respectivement 10 milliards et 5 milliards de dollars. Le même jour, Anthropic indique avoir conclu un engagement d'achat d'environ 30 milliards de dollars de capacités cloud sur Azure (Microsoft). À la suite de ces annonces, la valorisation d'Anthropic est estimée autour de 350 milliards de dollars[12].
En décembre 2025, alors que Claude Code aurait atteint un chiffre d’affaires annualisé de 1 milliard de dollars, Anthropic acquiert Bun afin d'améliorer la rapidité, la stabilité et les capacités de Claude Code[13].
Fin 2025[14], l'entreprise, qui avait soutenu la candidature de Kamala Harris, refuse à l'administration Trump l'utilisation de ses outils à des fins de surveillance des populations et de fabrication d'armes. Les limites de l'utilisation de l'IA dans un contexte militaire sont explicitées par Dario Amodei dans son essai The Adolescence of Technology paru en 2026[15].
En février 2026, Anthropic annonce un don de 20 millions de dollars à Public First Action, une organisation bipartisane de type 501(c)(4), engagée dans la promotion de garde‑fous démocratiques pour la régulation de l’intelligence artificielle. Cette ONG prévoit d’intervenir dans les élections fédérales et locales de 2026 pour y soutenir des candidats des deux partis favorables à pour la régulation de l'IA[16],[17].
En février 2026, des dissensions apparaissent entre Anthropic et le Pentagone quant à l'utilisation sans restriction de son IA par l'armée. Anthropic refuse que son IA soit utilisée pour la surveillance de masse des Américains ou pour des armes létales entièrement autonomes. Le Pentagone fixe un ultimatum au [18]. Anthropic refusant d'ouvrir son IA perd le bénéfice du contrat de 200 millions de dollars signé en et est interdite de travailler avec le gouvernement américain[19].
En février 2026, Anthropic affirme avoir neutralisé une vaste campagne d'extraction de données orchestrée par trois entreprises d'IA chinoises (DeepSeek, Moonshot AI et Minimax). L'opération, dite de distillation, a été menée « à l'échelle industrielle » par 24 000 comptes frauduleux ayant soumis plus de 16 millions de requêtes ciblées aux modèles de la famille Claude. Cela a permis à ces trois concurrents chinois de capturer une partie des capacités de Claude, développant ainsi à moindre coût leurs modèles en violation des conditions d'utilisation et des restrictions régionales d'Anthropic. Les preuves de ce détournement incluent l'analyse de métadonnées liant directement les requêtes à des chercheurs seniors, ainsi que la détection de réseaux de proxys coordonnés. Outre un préjudice commercial, Anthropic alerte les autorités sur les risques de sécurité nationale, affirmant que les modèles dérivés de cette distillation échappent aux protocoles de modération originaux, ouvrant la voie à des usages malveillants. Selon Anthropic, « les laboratoires étrangers qui distillent des modèles américains peuvent ensuite alimenter ces capacités non protégées dans des systèmes militaires, de renseignement et de surveillance — permettant aux gouvernements autoritaires de déployer une IA de pointe pour des opérations cybernétiques offensives, des campagnes de désinformation et une surveillance de masse. Si les modèles distillés sont open source, ce risque se multiplie à mesure que ces capacités se répandent librement au-delà du contrôle de tout gouvernement unique »[20]. Cette dénonciation survient dans un contexte de tensions croissantes entre les laboratoires de la Silicon Valley et les acteurs de l'IA en Chine accusés de contourner les restrictions d'accès pour maintenir leur compétitivité technologique. Des contre-mesures sont développées et Anthropic appelle à « une réponse coordonnée entre l’industrie de l’IA, les fournisseurs cloud et les décideurs politiques »[21],[20].
Projets
[modifier | modifier le code]Claude
[modifier | modifier le code]Anthropic développe son propre chatbot, nommé Claude notamment en hommage au mathématicien Claude Shannon[22].
En mars 2023, la version initiale sort, ainsi qu'une version allégée nommée « Claude Instant ». Ces versions restent initialement disponibles en version bêta fermée via une intégration Slack, puis rendues accessibles via l'application Poe de Quora[23]. Anthropic créé par la suite un site dédié, claude.ai.
En mars 2024, Anthropic lance Claude 3, qui inclut trois modèles de tailles différentes : Haiku, Sonnet et Opus. En octobre 2024, avec la sortie d'une version améliorée de Claude 3.5 Sonnet, Anthropic lance une fonctionnalité permettant à Claude de contrôler un ordinateur en utilisant des captures d'écran, des clics et un clavier virtuel, lui permettant ainsi d'effectuer des tâches nécessitant plus d'autonomie[24].
En janvier 2025, en réaction à la publication de l'IA chinoise DeepSeek R1, médiatisée pour ses performances et son faible coût, Dario Amodei avance que Claude 3.5 Sonnet n'a coûté que quelques dizaines de millions de dollars à entraîner[25]. Un chiffre qui contraste également avec les 500 milliards annoncés pour The Stargate Project quelques jours plus tôt. Son analyse souligne que l'investissement matériel de DeepSeek, notamment son parc de puces Nvidia estimé à près d'un milliard de dollars, est en réalité d'un ordre de grandeur comparable à celui des acteurs américains[26],[27].
En février 2025, Anthropic introduit Claude 3.7 Sonnet, un modèle de « raisonnement hybride » qui est disponible en deux modes : un mode de réflexion étendue où il passe plus de temps afin de pouvoir répondre aux requêtes complexes, ce qui est efficace par exemple en mathématiques ou en codage, et un mode standard où, comme avec les modèles précédents, il répond rapidement[28].
En mai 2025, la start-up lance la génération Claude 4, déclinée en versions Sonnet et Opus. Ce dernier est classé comme modèle de « Niveau 3 » sur l'échelle de sécurité d'Anthropic en raison de sa puissance de calcul et de ses capacités de raisonnement autonome avancées[29].
À partir de septembre 2025, Anthropic déploie progressivement la série 4.5. Après le lancement de Claude Sonnet 4.5 fin septembre[30], la gamme est complétée par Claude Haiku 4.5 en octobre, qui devient le modèle par défaut pour les utilisateurs gratuits du site claude.ai. Enfin, en novembre 2025, le modèle phare Claude Opus 4.5 est rendu public. Cette version introduit la fonctionnalité « Infinite Chats », utilisant une technique de compaction du contexte pour permettre des conversations virtuellement sans limite de longueur[31].
Le 5 février 2026, Anthropic dévoile Claude Opus 4.6, présenté comme son modèle le plus intelligent à ce jour. Conçu pour les tâches de raisonnement complexe et le codage, il introduit une fonctionnalité de « pensée adaptative » (adaptive thinking) permettant au modèle d'ajuster son effort de réflexion selon la difficulté du problème. Il dispose également d'une fenêtre de contexte d'un million de jetons (tokens) et de capacités agentiques renforcées pour la navigation autonome dans les interfaces logicielles[32].
IA constitutionnelle
[modifier | modifier le code]L'IA constitutionnelle est une approche développée par Anthropic pour entraîner les systèmes d'IA (tels Claude) à être utiles, sincères et inoffensifs sans nécessiter de rétroaction humaine, en intégrant parmi ses filtres dans l'entraînement des modèles d'IA, des valeurs et principes inspirés de documents comme la Déclaration universelle des droits de l'homme de l'ONU[33],[34].
Dans une phase d'apprentissage supervisé, le modèle génère des réponses, s'autocritique sur la base d'un ensemble de principes (une « constitution »), puis ajuste ses réponses. Ces réponses davantage conformes à la constitution sont ensuite utilisées pour entraîner le modèle[33].
Ensuite vient une phase d'apprentissage par renforcement. Le modèle génère des réponses et les compare, favorisant celles qui satisfont le plus les principes de la constitution. Ces données permettent d'entraîner un modèle de préférences, qui juge des réponses en fonction de leur degré de conformité à la constitution. Claude est ensuite ajusté à satisfaire ce modèle de préférences. Cette technique est similaire à l'apprentissage par renforcement à partir de rétroaction humaine, où les comparaisons humaines sont nécessaires, tandis que l'IA constitutionnelle effectue automatiquement les comparaisons en s'appuyant sur la constitution[35],[33].
Recherche en interprétabilité
[modifier | modifier le code]Anthropic publie également des recherches en interprétabilité des systèmes d'IA (une discipline visant à en comprendre le fonctionnement interne), en se concentrant sur les transformeurs, qui sont des modèles d'IA très utilisés dans le traitement du langage[36].
Une partie de la recherche d'Anthropic vise à pouvoir identifier automatiquement des « caractéristiques » dans les transformateurs génératifs préentraînés comme Claude. Dans un réseau neuronal, une « caractéristique » (de l'anglais feature) est un motif d'activations neuronales qui correspond à un concept. En 2024, en utilisant une technique nécessitant d'importantes ressources informatiques appelée sparse dictionnary learning (« apprentissage de dictionnaire parcimonieux »), Anthropic a pu identifier des millions de caractéristiques dans Claude, y compris par exemple une associée au pont du Golden Gate. L'amélioration de la capacité à identifier et à modifier ces caractéristiques devrait avoir des implications significatives en matière de sécurité[37],[38].
En mars 2025, des recherches menées par Anthropic montrent un chevauchement dans la façon dont Claude raisonne dans différentes langues, suggérant que les grands modèles de langage multilingues traitent partiellement l'information dans un espace conceptuel avant de la convertir dans la langue appropriée. Les recherches ont également analysé comment Claude génère des rimes lors de l'écriture d'un poème, mettant en évidence une forme de planification : Claude identifie des mots potentiels qui riment avant de générer une ligne qui se termine par l'un de ces mots[39],[40].
Projets liés à l'armée et au renseignement américains
[modifier | modifier le code]Anthropic fait partie des acteurs de l’IA impliqués dans les secteurs de la défense et du renseignement américains : en novembre 2024, l’entreprise s’associe à Palantir et Amazon Web Services (AWS) pour fournir Claude aux agences de renseignement et de défense[41],[42]. En juin 2025, elle lance un modèle spécialisé, Claude Gov, déjà utilisé par plusieurs agences de sécurité nationale selon Ars Technica[43]. En février 2026, via son partenariat avec Palantir, Claude devient le seul modèle d’IA autorisé dans les missions classifiées[44], après qu'en juillet 2025, le département de la Défense ait attribué à Anthropic un contrat de 200 millions de dollars pour des solutions d’IA militaires, aux côtés de Google, OpenAI et xAI[45]. Selon le Wall Street Journal, Claude aurait été utilisé lors du raid américain de 2026 au Venezuela (qui a causé 83 morts et conduit à la capture du président Nicolás Maduro)[46].
La politique éthique d’Anthropic interdit cependant l’usage direct de Claude pour la surveillance intérieure ou dans des armes létales autonomes, ce qui empêche notamment certains sous-traitants du FBI et des services secrets d’y recourir[47] et alimente des tensions avec le Pentagone et l’administration Trump qui, via le secrétaire à la Défense Pete Hegseth, menace de retirer Anthropic de la chaîne d’approvisionnement du département de la Défense et d’invoquer le Defense Production Act pour imposer un usage sans restriction du modèle[48].
Après qu'Anthropic refuse de supprimer les contraintes sur l'utilisation de son modèle Claude[49], le Pentagone met fin le 27 février 2026 à sa collaboration avec l'entreprise, et l'administration Trump cesse toute collaboration avec Anthropic, que Trump qualifie « de gauche radicale et woke »[50]. Hegseth déclare qu'Anthropic représente un risque de chaîne d’approvisionnement, ce qui empêche toute entreprise d'utiliser des technologies d'Anthropic dans le cadre de contrats avec le département de la Défense, un traitement utilisé pour la première fois contre une entreprise américaine et que Anthropic conteste en justice[51].
Le 27 février, OpenAI, un concurrent d'Anthropic, annonce être parvenu à un accord avec le Pentagone incluant les mêmes lignes rouges d'Anthropic contre la surveillance intérieure de masse et les armes entièrement autonomes. Cependant, la présence de ces lignes rouges dans l'accord d'OpenAI est contestée, l'entreprise apparaissant permissive au sujet de la surveillance intérieure de masse[52]. La différence de traitement provoque une migration d'utilisateurs de ChatGPT (le chatbot d'OpenAI) vers Claude[53].
Début mars 2026, l'armée américaine continue cependant d'utiliser Claude lors de son offensive en Iran[54].
Projets liés à l'éducation
[modifier | modifier le code]Claude a un intérêt potentiel en tant que technologie d’assistance dans l’éducation et les services offerts par les bibliothèques[55].
En août 2025, Anthropic a lancé un conseil consultatif sur l'enseignement supérieur, présidé par Rick Levin, ancien président de l'université Yale et ancien PDG de Coursera[56].
En 2025, Anthropic s'est aussi associé au ministère islandais de l'Éducation et de l'Enfance pour permettre aux enseignants d'accéder à Claude et d'intégrer l'IA dans leur enseignement quotidien[57].
Projet Panama
[modifier | modifier le code]En janvier 2026, un procès lié aux droits d'auteur de livres a mis en lumière le « projet Panama », décrit dans une note interne comme une initiative d'Anthropic visant à « numériser de manière destructive tous les livres du monde ». Pour ce faire, l'entreprise aurait acheté des millions de livres d'occasion auprès de détaillants en ligne tels que Better World Books, afin de les numériser et d'entraîner Claude sur ce corpus. Le papier aurait ensuite été recyclé. Tom Turvey, co-créateur de Google Livres, a été recruté pour cette opération. Selon le document de planification du Projet Panama, Anthropic ne souhaitait pas que ce projet se fasse connaître. Le juge William Alsup a statué que l'utilisation de livres achetés légalement pour entraîner l'IA constituait une utilisation équitable, contrairement à l'utilisation antérieure par Anthropic de copies piratées[58],[59].
Notes et références
[modifier | modifier le code]- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Anthropic » (voir la liste des auteurs).
- ↑ (en-US) « ChatGPT must be regulated and A.I. can be used by bad actors, warns OpenAI’s CTO », finance.yahoo.com (consulté le ).
- ↑ (en-US) Vincent, « Google invested $300 million in AI firm founded by former OpenAI researchers », The Verge, (consulté le ).
- ↑ (en) « Grâce aux milliards de Google et Amazon, Anthropic refait son retard sur OpenAI », latribune.fr, (lire en ligne, consulté le ).
- ↑ (en-US) Papadopoulos, « Google invests $400 million in Anthropic to battle the power of ChatGPT », interestingengineering.com, (consulté le ).
- ↑ « OpenAI Is Making Headlines. It's Also Seeding Talent Across Silicon Valley », The Information (consulté le ).
- ↑ (en-US) « Daniela and Dario Amodei on Anthropic », Future of Life Institute (consulté le ).
- ↑ (en-US) « As Anthropic seeks billions to take on OpenAI, industrial capture is nigh. Or is it? », sur VentureBeat, (consulté le ).
- ↑ (en-US) Kyle Wiggers, « Anthropic hires OpenAI co-founder Durk Kingma », sur TechCrunch, (consulté le ).
- ↑ « L'Américain Anthropic barre l'accès de son IA aux entreprises chinoises », sur lefigaro.fr, (consulté le ).
- ↑ « Intelligence artificielle : Pour “accélérer encore davantage Claude Code”, Anthropic acquiert la start-up Bun et sa boîte à outils JavaScript », sur L'Usine Digitale, (consulté le ).
- ↑ « IA générative : Anthropic paiera 1,5 milliard de dollars pour éviter un procès sur le téléchargement illégal de livres », Le Monde, (lire en ligne, consulté le ).
- ↑ « Symbole de la folie autour de l'intelligence artificielle, le nouveau géant Anthropic brasse des dizaines de milliards de dollars - Le Temps », www .letemps.ch, (ISSN 1423-3967, lire en ligne, consulté le ).
- ↑ (en) Reuters, « Anthropic Acquires Developer Tool Startup Bun to Scale AI Coding », sur US News, (consulté le ).
- ↑ (en) « Exclusive: Anthropic irks White House with limits on models' use », Semafor, (lire en ligne [archive du ], consulté le ).
- ↑ « Anthropic, cette start-up d'IA qui ose contredire Donald Trump », Le Monde, (lire en ligne, consulté le ).
- ↑ « Les plus grands bâtisseurs de l’IA sont devenus ses plus puissants lobbyistes », sur Forbes France, (consulté le ).
- ↑ (en-GB) « Anthropic donates $20 million to AI education and policy organization Public First Action », sur EdTech Innovation Hub (consulté le ).
- ↑ « Le Pentagone somme Anthropic de lever les restrictions à l’utilisation de son IA »
, Courrier International, .
- ↑ « Le Pentagone cesse toute collaboration avec l’intelligence artificielle d’Anthropic et se tourne vers OpenAI »
, Le Monde, (consulté le ).
- (en) « Detecting and preventing distillation attacks », sur Anthropic, (consulté le ).
- ↑ BFM, « Après OpenAI, la start-up Anthropic accuse Deepseek et deux autres IA chinoises d'avoir pillé son chatbot Claude », sur MSN, (consulté le ).
- ↑ (en) Kevin Roose, « Inside the White-Hot Center of A.I. Doomerism », sur The New York Times, .
- ↑ (en-US) « Quora opens its new AI chatbot app Poe to the general public », TechCrunch, (consulté le ).
- ↑ « Claude AI peut désormais contrôler votre ordinateur », sur Les Numeriques, (consulté le ).
- ↑ (en) Michael Nuñez, « Dario Amodei challenges DeepSeek's $6 million AI narrative: What Anthropic thinks about China's latest AI move », sur VentureBeat, (consulté le ).
- ↑ (en) « Dario Amodei — On DeepSeek and Export Controls », sur darioamodei.com (consulté le ).
- ↑ Florent Perez, « Coût des IA : la leçon de Dario Amodei face à DeepSeek », sur Agence GEO, (consulté le ).
- ↑ « Anthropic publie son modèle Claude 3.7 Sonnet doué de "raisonnement hybride" », L'usine digitale, (lire en ligne, consulté le ).
- ↑ (en) « Claude 4: Our most capable models for coding and agents », sur anthropic.com, .
- ↑ « En réponse à GPT-5, Anthropic lance Claude Sonnet 4.5 », Le Monde informatique, (consulté le ).
- ↑ (en) « Introducing Claude Opus 4.5 », sur anthropic.com, .
- ↑ (en) « Claude Opus 4.6: Adaptive thinking and 1M context window », sur anthropic.com, (consulté le ).
- (en) Will Henshall, « What to Know About Claude 2, Anthropic's Rival to ChatGPT », sur Time, (consulté le ).
- ↑ « Intelligence artificielle : Daniela Amodei promet un ChatGPT plus sûr », Les Echos, (lire en ligne [archive du ], consulté le )
- ↑ (en) Lance Eliot, « Latest Generative AI Boldly Labeled As Constitutional AI Such As Claude By Anthropic Has Heart In The Right Place, Says AI Ethics And AI Law », sur Forbes, (consulté le ).
- ↑ « Transformer Circuits Thread », transformer-circuits.pub (consulté le ).
- ↑ (en) Lucas Ropek, « New Anthropic Research Sheds Light on AI's 'Black Box' », sur Gizmodo, (consulté le ).
- ↑ (en) « Artificial Intelligence Is a 'Black Box.' Maybe Not For Long », sur TIME, (consulté le ).
- ↑ (en) Jeremy Kahn, « Anthropic researchers make progress unpacking AI's 'black box' », sur Fortune (consulté le ).
- ↑ (en) Michael Nuñez, « Anthropic scientists expose how AI actually 'thinks' — and discover it secretly plans ahead and sometimes lies », sur VentureBeat, (consulté le ).
- ↑ (en-US) Maxwell Zeff, « The Pentagon says AI is speeding up its 'kill chain' », TechCrunch, (lire en ligne [archive du ], consulté le ).
- ↑ (en-GB) « Anthropic’s Dario Amodei: Democracies must maintain the lead in AI », Financial Times, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) « Anthropic releases custom AI chatbot for classified spy work », Ars Technica, (lire en ligne [archive du ], consulté le ).
- ↑ (en) « Pete Hegseth threatens to cut Anthropic from Pentagon supply chain in showdown with CEO », sur Financial Times, .
- ↑ (en-US) « Grok’s “MechaHitler” meltdown didn’t stop xAI from winning $200M military deal », Ars Technica, (lire en ligne [archive du ], consulté le ).
- ↑ (en) Amrith, Ramkumar; Hagey, Keach (13 février 2026). « Pentagon Used Anthropic's Claude in Maduro Venezuela Raid », The Wall Street Journal, consulté le 14 février 2026.
- ↑ (en) Benj Edwards, « White House officials reportedly frustrated by Anthropic’s law enforcement AI limits », sur Ars Technica, (consulté le ).
- ↑ (en) Matt O’brien et Konstantin Toropin, « Hegseth warns Anthropic to let the military use the company’s AI tech as it sees fit, AP sources say », sur AP News, (consulté le ).
- ↑ « Anthropic bloque l’utilisation de son IA par le Pentagone pour la « surveillance intérieure de masse » et les « armes complètement autonomes » », Le Monde, (lire en ligne, consulté le ).
- ↑ « Le Pentagone cesse toute collaboration avec l’intelligence artificielle d’Anthropic et se tourne vers OpenAI », Le Monde, (lire en ligne, consulté le ).
- ↑ « Anthropic poursuit le Pentagone pour son label de risque industriel », sur euronews, (consulté le )
- ↑ Keren Lentschner, « Désabonnements à ChatGPT, image écornée, « signature précipitée » : pour OpenAI, le contrat avec le Pentagone vire au cadeau empoisonné », sur Le Figaro, (consulté le )
- ↑ « Pourquoi des utilisateurs désertent-ils ChatGPT au profit de Claude? », sur Le Devoir, (consulté le )
- ↑ « La guerre 3.0 : voici pourquoi l'armée américaine a utilisé Claude pour frapper l'Iran », sur Clubic.com,
- ↑ (en) Adebowale Jeremy Adetayo, Mariam Oyinda Aborisade et Basheer Abiodun Sanni, « Microsoft Copilot and Anthropic Claude AI in education and library service », Library Hi Tech News, (ISSN 0741-9058 et 0741-9058, DOI 10.1108/LHTN-01-2024-0002, lire en ligne, consulté le ).
- ↑ (en) Vidhi Taparia, « Anthropic forms higher education advisory board, launches AI fluency courses », Fortune India, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) « Anthropic and Iceland Unveil National AI Education Pilot », TechRepublic, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Aaron Schaffer, Will Oremus et Nitasha Tiku, « Inside an AI start-up’s plan to scan and dispose of millions of books », The Washington Post, (ISSN 0190-8286, lire en ligne, consulté le ).
- ↑ (en) Benj Edwards, « Anthropic destroyed millions of print books to build its AI models », sur Ars Technica, (consulté le ).
Liens externes
[modifier | modifier le code]
- (en) Site officiel
- Ressource relative aux organisations :