- Limonaia.ai
- Posts
- đ€IActualiteÌs du 1er Avril
đ€IActualiteÌs du 1er Avril

Bonjour Ă toutes et Ă tous,
Comme chaque semaine, retrouvez toute lâactualitĂ© de lâIntelligence Artificielle !

40%
Une étude Procter & Gamble a révélé que l'IA améliore fortement la performance en développement produit. Les équipes utilisant GPT-4o ont surpassé de 40 % les équipes sans IA. Les individus seuls avec IA ont amélioré leurs résultats de 37 %, atteignant le niveau des équipes sans IA.
Source : Etude Procter & Gamble

OpenAI: entre levée de fonds et construction de data centers
OpenAI est sur le point de boucler une levĂ©e de fonds historique de 40 milliards de dollars, menĂ©e par SoftBank. Si lâopĂ©ration aboutit, la valorisation de lâentreprise atteindrait 300 milliards $, faisant dâelle lâune des entreprises technologiques les plus valorisĂ©es au monde.
Cet afflux massif de capitaux servira en prioritĂ© Ă renforcer l'infrastructure informatique d'OpenAI, notamment par l'acquisition de puces et de serveurs. Son PDG, Sam Altman, a lui-mĂȘme reconnu que lâentreprise souffre dâune pĂ©nurie de GPU, des processeurs essentiels au fonctionnement de ses modĂšles dâIA.
Par ailleurs, OpenAI envisage de construire son propre data center, un projet ambitieux qui pourrait coûter des centaines de milliards de dollars. Cette stratégie réduirait sa dépendance aux fournisseurs de cloud comme Microsoft et augmenterait sa capacité à développer des IA toujours plus performantes.
Le succĂšs fulgurant de son nouvel outil de gĂ©nĂ©ration dâimages a entraĂźnĂ© une saturation des serveurs d'OpenAI. Disponible pour les abonnĂ©s payants, cet outil permet de crĂ©er des images ultra-rĂ©alistes et stylisĂ©es, inspirĂ©es notamment de lâunivers du studio Ghibli. Devant lâafflux massif dâutilisateurs, OpenAI a dĂ» suspendre temporairement lâaccĂšs Ă cette fonctionnalitĂ© pour les utilisateurs gratuits.
La mise Ă jour du modĂšle GPT-4o apporte des amĂ©liorations notables en matiĂšre de comprĂ©hension et de gĂ©nĂ©ration de contenu, avec une meilleure prise en compte du contexte des prompts. Cette Ă©volution ouvre la voie Ă de nouvelles applications, comme la crĂ©ation automatisĂ©e de campagnes publicitaires, la rĂ©novation virtuelle dâintĂ©rieurs ou encore la conception de schĂ©mas complexes en quelques clics.
Pour finir, OpenAI adopte le Model Context Protocol (MCP), un standard dĂ©veloppĂ© par Anthropic, permettant aux IA de mieux interagir avec des sources de donnĂ©es externes. Cette approche pourrait accĂ©lĂ©rer la collaboration entre les diffĂ©rents acteurs de lâIA et favoriser une innovation plus rapide.
Un Nouveau Test pour Mesurer lâIntelligence des IA
Les benchmarks dâIA ont toujours eu une importance discutable lorsquâil sâagit dâĂ©valuer les vĂ©ritables capacitĂ©s des modĂšles. Certains chercheurs tentent de crĂ©er des tests plus pertinents. Câest le cas de François Chollet, scientifique en informatique et crĂ©ateur du benchmark ARC-AGI-1, conçu pour mesurer la capacitĂ© de raisonnement des modĂšles dâIA.
Son objectif est clair : Ă©tablir un test qui serve de âNorth Starâ vers lâintelligence artificielle gĂ©nĂ©rale (AGI), cette hypothĂ©tique Ă©volution de lâIA qui permettrait aux machines dâacquĂ©rir une intelligence comparable Ă celle des humains. Pour Chollet, lâAGI se dĂ©finit comme la disparition de lâĂ©cart entre les tĂąches faciles pour les humains mais difficiles pour les IA.
Cette semaine, il a annoncĂ© ARC-AGI-2, une nouvelle version de son test qui, en plus de lâintelligence gĂ©nĂ©ralisĂ©e, prend en compte lâefficacitĂ© des modĂšles. Contrairement Ă la premiĂšre version, ce nouveau benchmark ne peut pas ĂȘtre rĂ©solu par simple force brute.
Les rĂ©sultats sont rĂ©vĂ©lateurs : alors que le modĂšle dâOpenAI qui avait atteint 75 % de rĂ©ussite sur ARC-AGI-1 ne dĂ©passe pas 4 % sur ARC-AGI-2, les modĂšles de langage classiques nâobtiennent mĂȘme pas 1 %. Chaque tĂąche du test a Ă©tĂ© rĂ©solue en moins de deux tentatives par au moins deux humains, avec un coĂ»t de 17 dollars par tĂąche, tandis que les modĂšles dâIA actuels demandent jusquâĂ 200 dollars par tĂąche.
LâefficacitĂ© devient donc une mesure clĂ© dans ce benchmark. Les participants Ă ce dĂ©fi ne disposent que de 50 dollars de calcul par soumission et doivent rendre leur solution open source pour prĂ©tendre au prix.
Ce critĂšre dâefficacitĂ© met en lumiĂšre une limite fondamentale des grands modĂšles de langage (LLM). Leur intelligence reste inefficace et fragile, et leur propension aux erreurs confiantes et aux hallucinations est toujours aussi prĂ©sente. Le constat est sans appel : lâIA, dans sa forme actuelle, reste loin de la vĂ©ritable intelligence humaine.
KBLaM : une nouvelle approche pour rendre les LLMs plus efficaces et fiables
Les modÚles de langage (LLMs) comme ChatGPT sont impressionnants, mais ils rencontrent des défis majeurs lorsqu'il s'agit d'intégrer des connaissances externes de maniÚre efficace. Jusqu'à présent, plusieurs approches existaient :
le fine-tuning, coûteux et rigide,
le Retrieval-Augmented Generation (RAG), qui ajoute une complexité avec des composants externe
lâapprentissage en contexte (in-context learning), dont lâefficacitĂ© dĂ©croĂźt avec lâaugmentation du volume de connaissances.
Microsoft propose aujourdâhui une alternative prometteuse : KBLaM (Knowledge Base-Augmented Language Model).
KBLaM repose sur une mĂ©thode innovante appelĂ©e rectangular attention, qui permet dâencoder des connaissances sous forme de triplets structurĂ©s (entitĂ©, propriĂ©tĂ©, valeur). Ces informations sont intĂ©grĂ©es directement dans les couches dâattention du modĂšle, ce qui offre plusieurs avantages significatifs :
AccĂšs efficace et scalable : contrairement au RAG, qui nĂ©cessite un module externe de rĂ©cupĂ©ration dâinformation, KBLaM intĂšgre directement les connaissances dans le modĂšle, rĂ©duisant ainsi la latence et les besoins en mĂ©moire.
Mises Ă jour sans rĂ©entraĂźnement : alors que le fine-tuning impose un nouveau cycle dâentraĂźnement pour chaque mise Ă jour des donnĂ©es, KBLaM permet dâajouter ou de modifier des connaissances dynamiquement.
RĂ©duction des hallucinations : le modĂšle apprend Ă refuser de rĂ©pondre lorsquâil ne dispose pas de lâinformation nĂ©cessaire, ce qui renforce la fiabilitĂ© des rĂ©ponses.
đ Câest tout, pour le moment !
Si cette newsletter vous a plu, partagez la !
A la semaine prochaine !đ