L’IA en février 2026 : OpenAI à 850 milliards, IBM chute face à Claude, et la bataille pour l’authenticité numérique
La semaine du 19 au 26 février 2026 restera marquée comme un tournant pour l’intelligence artificielle. Entre levée de fonds historique, révolution du code legacy et bouleversements des politiques de sécurité, l’industrie témoigne d’une maturité sans précédent — mais aussi de tensions croissantes entre innovation, régulation et concurrence. Retour sur cinq actualités majeures qui redessinent le paysage de l’IA.
OpenAI franchit le cap des 850 milliards de dollars
Les faits : OpenAI est sur le point de finaliser une levée de fonds de plus de 100 milliards de dollars, portant sa valorisation à plus de 850 milliards de dollars, selon des sources proches du dossier citées par Bloomberg et TechCrunch. Cette opération, si elle se concrétise, deviendrait l’une des plus importantes levées de fonds privées de l’histoire.
Les investisseurs : Le tour de table réunit les poids lourds de la tech : Amazon (jusqu’à 50 milliards $), SoftBank (30 milliards $), Nvidia (20 milliards $) et Microsoft. Des fonds de capital-risque et des fonds souverains devraient compléter le financing ultérieurement.
Le contexte : Cette valorisation place OpenAI juste derrière les géants comme Tesla ou Meta. L’entreprise cherche à financer ses ambitions colossales en matière d’infrastructures — le projet ‘Stargate’ annoncé par Donald Trump début 2026 prévoirait un investissement de 500 milliards de dollars dans les datacenters américains. Parallèlement, OpenAI a commencé à tester des publicités dans ChatGPT pour les utilisateurs gratuits, un virage économique significatif.
Anthropic fait chuter IBM de 13% avec un outil COBOL
Le choc boursier : Lundi 23 février 2026, le titre IBM a chuté de 13,2% — sa plus forte baisse quotidienne depuis octobre 2000 — après une annonce d’Anthropic. La raison ? Son outil Claude Code peut désormais moderniser automatiquement les codebases COBOL, un langage de programmation des années 1950 encore utilisé pour 95% des transactions ATM aux États-Unis.
Pourquoi c’est important : Le COBOL représente des centaines de milliards de lignes de code en production, notamment dans la finance, les compagnies aériennes et les administrations. Jusqu’à présent, sa modernisation était verrouillée par un coût prohibitif et une pénurie de développeurs compétents. Claude Code peut désormais cartographier les dépendances, documenter les workflows et identifier les risques en des temps records.
L’analyse : Cette correction boursière de 13% — portant la baisse d’IBM à 27% depuis le début de février — illustre comment une capacité IA ‘étroite mais économiquement significative’ peut menacer les rentes établies des entreprises de services informatiques. Selon Anthropic : ‘La modernisation du code legacy était bloquée parce que comprendre le code legacy coûtait plus cher que le réécrire. L’IA inverse cette équation.’
Anthropic révise sa politique de sécurité : la fin de l’engagement catégorique ?
Le changement : Le 24 février 2026, Anthropic publie la version 3.0 de sa Responsible Scaling Policy (RSP). L’entreprise abandonne son engagement catégorique de ne pas entraîner de modèles sans garanties de sécurité préalables. Désormais, l’accent est mis sur la transparence via des ‘Risk Reports’ réguliers et des ‘Frontier Safety Roadmaps’ plutôt que sur un arrêt absolu du développement.
La justification : Anthropic explique qu’une pause unilatérale serait inefficace si les concurrents continuent d’itérer. Cependant, cette décision suscite des critiques de chercheurs en sécurité qui y voient un affaiblissement d’un signal clé pour l’industrie.
Les implications : Cette évolution reflète la tension entre liberté d’innovation et responsabilité sociétale. Si d’autres acteurs suivent ce mouvement, l’industrie pourrait normaliser un modèle où la sécurité devient itérative et rapportée plutôt que garantie avant déploiement — ouvrant la voie à des réglementations contraignantes plus strictes.
Google lance Gemini 3.1 Pro, l’IA pour le ‘deep work’
Le lancement : Le 19 février 2026, Google déploie Gemini 3.1 Pro, présenté comme un modèle optimisé pour le ‘travail en profondeur’ — raisonnement long, synthèse complexe et flux de recherche avancés. Le modèle est disponible via l’application Gemini, NotebookLM et GitHub Copilot pour les abonnés Pro et Ultra.
Les capacités : Selon Google DeepMind, Gemini 3.1 Pro surpasse significativement son prédécesseur sur les benchmarks nécessitant un raisonnement avancé et des capacités multimodales. Le modèle excelle particulièrement dans les boucles ‘édition-test’ avec une haute précision d’outils — une avancée majeure pour les développeurs.
La stratégie : Google positionne ce modèle comme un ‘augmenteur cognitif’ pour le travail intellectuel, pas seulement un assistant. Cette approche vise à convertir l’intérêt éphémère des utilisateurs en gains de productivité mesurables et récurrents — un enjeu clé pour sécuriser les budgets enterprise.
Microsoft propose un blueprint pour l’authenticité des contenus
La proposition : Microsoft a dévoilé un blueprint technique pour authentifier les contenus en ligne face à la prolifération des deepfakes. Le document, publié le 19 février 2026 et partagé avec MIT Technology Review, évalue 60 combinaisons de méthodes de vérification (métadonnées, watermarks, signatures mathématiques) et recommande des standards adoptables par les plateformes.
Le contexte : Cette initiative intervient alors que la désinformation par IA s’intensifie — des vidéos pro-russes générées par IA visant à décourager l’enrôlement ukrainien aux images manipulées partagées par la Maison Blanche. La loi californienne sur la transparence de l’IA, effective en août 2026, pousse également les acteurs à agir.
Les limites : Eric Horvitz, directeur scientifique de Microsoft, reconnaît que ces outils ne déterminent pas la vérité du contenu — seulement s’il a été manipulé. De plus, seulement 30% des contenus IA générés sont correctement identifiés comme tels sur les grandes plateformes selon un audit d’Indicator. Microsoft n’a pas confirmé qu’elle appliquerait ses propres recommandations sur Copilot, LinkedIn ou Azure.
Conclusion
Cette semaine illustre une industrie de l’IA à un point d’inflexion. La levée record d’OpenAI témoigne d’une confiance des investisseurs malgré les défis économiques. La correction d’IBM montre que l’IA ne menace pas seulement les emplois — elle redéfinit les valorisations boursières. Les évolutions des politiques de sécurité d’Anthropic et les propositions de Microsoft révèlent des tentatives d’autorégulation sous pression réglementaire croissante.
Une question persiste : dans cette course à l’innovation, la sécurité restera-t-elle une priorité ou deviendra-t-elle un simple ajustement comptable ? L’avenir dira si ces ‘Roadmaps de sécurité’ promise par Anthropic et les standards d’authenticité de Microsoft seront des avancées tangibles ou de vains exercices de relations publiques.
Sources : Bloomberg, TechCrunch, CNBC, Reuters, Anthropic (source primaire), Google Blog (source primaire), MIT Technology Review
