đŸ€–IActualités du 1er Avril

Bonjour Ă  toutes et Ă  tous,

Comme chaque semaine, retrouvez toute l’actualitĂ© de l’Intelligence Artificielle !

40%

Une étude Procter & Gamble a révélé que l'IA améliore fortement la performance en développement produit. Les équipes utilisant GPT-4o ont surpassé de 40 % les équipes sans IA. Les individus seuls avec IA ont amélioré leurs résultats de 37 %, atteignant le niveau des équipes sans IA.

Source : Etude Procter & Gamble

OpenAI: entre levée de fonds et construction de data centers

OpenAI est sur le point de boucler une levĂ©e de fonds historique de 40 milliards de dollars, menĂ©e par SoftBank. Si l’opĂ©ration aboutit, la valorisation de l’entreprise atteindrait 300 milliards $, faisant d’elle l’une des entreprises technologiques les plus valorisĂ©es au monde.

Cet afflux massif de capitaux servira en prioritĂ© Ă  renforcer l'infrastructure informatique d'OpenAI, notamment par l'acquisition de puces et de serveurs. Son PDG, Sam Altman, a lui-mĂȘme reconnu que l’entreprise souffre d’une pĂ©nurie de GPU, des processeurs essentiels au fonctionnement de ses modĂšles d’IA.

Par ailleurs, OpenAI envisage de construire son propre data center, un projet ambitieux qui pourrait coûter des centaines de milliards de dollars. Cette stratégie réduirait sa dépendance aux fournisseurs de cloud comme Microsoft et augmenterait sa capacité à développer des IA toujours plus performantes.

Le succĂšs fulgurant de son nouvel outil de gĂ©nĂ©ration d’images a entraĂźnĂ© une saturation des serveurs d'OpenAI. Disponible pour les abonnĂ©s payants, cet outil permet de crĂ©er des images ultra-rĂ©alistes et stylisĂ©es, inspirĂ©es notamment de l’univers du studio Ghibli. Devant l’afflux massif d’utilisateurs, OpenAI a dĂ» suspendre temporairement l’accĂšs Ă  cette fonctionnalitĂ© pour les utilisateurs gratuits.

La mise Ă  jour du modĂšle GPT-4o apporte des amĂ©liorations notables en matiĂšre de comprĂ©hension et de gĂ©nĂ©ration de contenu, avec une meilleure prise en compte du contexte des prompts. Cette Ă©volution ouvre la voie Ă  de nouvelles applications, comme la crĂ©ation automatisĂ©e de campagnes publicitaires, la rĂ©novation virtuelle d’intĂ©rieurs ou encore la conception de schĂ©mas complexes en quelques clics.

Pour finir, OpenAI adopte le Model Context Protocol (MCP), un standard dĂ©veloppĂ© par Anthropic, permettant aux IA de mieux interagir avec des sources de donnĂ©es externes. Cette approche pourrait accĂ©lĂ©rer la collaboration entre les diffĂ©rents acteurs de l’IA et favoriser une innovation plus rapide.

Un Nouveau Test pour Mesurer l’Intelligence des IA

Les benchmarks d’IA ont toujours eu une importance discutable lorsqu’il s’agit d’évaluer les vĂ©ritables capacitĂ©s des modĂšles. Certains chercheurs tentent de crĂ©er des tests plus pertinents. C’est le cas de François Chollet, scientifique en informatique et crĂ©ateur du benchmark ARC-AGI-1, conçu pour mesurer la capacitĂ© de raisonnement des modĂšles d’IA.

Son objectif est clair : Ă©tablir un test qui serve de “North Star” vers l’intelligence artificielle gĂ©nĂ©rale (AGI), cette hypothĂ©tique Ă©volution de l’IA qui permettrait aux machines d’acquĂ©rir une intelligence comparable Ă  celle des humains. Pour Chollet, l’AGI se dĂ©finit comme la disparition de l’écart entre les tĂąches faciles pour les humains mais difficiles pour les IA.

Cette semaine, il a annoncĂ© ARC-AGI-2, une nouvelle version de son test qui, en plus de l’intelligence gĂ©nĂ©ralisĂ©e, prend en compte l’efficacitĂ© des modĂšles. Contrairement Ă  la premiĂšre version, ce nouveau benchmark ne peut pas ĂȘtre rĂ©solu par simple force brute.

Les rĂ©sultats sont rĂ©vĂ©lateurs : alors que le modĂšle d’OpenAI qui avait atteint 75 % de rĂ©ussite sur ARC-AGI-1 ne dĂ©passe pas 4 % sur ARC-AGI-2, les modĂšles de langage classiques n’obtiennent mĂȘme pas 1 %. Chaque tĂąche du test a Ă©tĂ© rĂ©solue en moins de deux tentatives par au moins deux humains, avec un coĂ»t de 17 dollars par tĂąche, tandis que les modĂšles d’IA actuels demandent jusqu’à 200 dollars par tĂąche.

L’efficacitĂ© devient donc une mesure clĂ© dans ce benchmark. Les participants Ă  ce dĂ©fi ne disposent que de 50 dollars de calcul par soumission et doivent rendre leur solution open source pour prĂ©tendre au prix.

Ce critĂšre d’efficacitĂ© met en lumiĂšre une limite fondamentale des grands modĂšles de langage (LLM). Leur intelligence reste inefficace et fragile, et leur propension aux erreurs confiantes et aux hallucinations est toujours aussi prĂ©sente. Le constat est sans appel : l’IA, dans sa forme actuelle, reste loin de la vĂ©ritable intelligence humaine.

KBLaM : une nouvelle approche pour rendre les LLMs plus efficaces et fiables

Les modÚles de langage (LLMs) comme ChatGPT sont impressionnants, mais ils rencontrent des défis majeurs lorsqu'il s'agit d'intégrer des connaissances externes de maniÚre efficace. Jusqu'à présent, plusieurs approches existaient :

  • le fine-tuning, coĂ»teux et rigide,

  • le Retrieval-Augmented Generation (RAG), qui ajoute une complexitĂ© avec des composants externe

  • l’apprentissage en contexte (in-context learning), dont l’efficacitĂ© dĂ©croĂźt avec l’augmentation du volume de connaissances.

Microsoft propose aujourd’hui une alternative prometteuse : KBLaM (Knowledge Base-Augmented Language Model).

KBLaM repose sur une mĂ©thode innovante appelĂ©e rectangular attention, qui permet d’encoder des connaissances sous forme de triplets structurĂ©s (entitĂ©, propriĂ©tĂ©, valeur). Ces informations sont intĂ©grĂ©es directement dans les couches d’attention du modĂšle, ce qui offre plusieurs avantages significatifs :

  • AccĂšs efficace et scalable : contrairement au RAG, qui nĂ©cessite un module externe de rĂ©cupĂ©ration d’information, KBLaM intĂšgre directement les connaissances dans le modĂšle, rĂ©duisant ainsi la latence et les besoins en mĂ©moire.

  • Mises Ă  jour sans rĂ©entraĂźnement : alors que le fine-tuning impose un nouveau cycle d’entraĂźnement pour chaque mise Ă  jour des donnĂ©es, KBLaM permet d’ajouter ou de modifier des connaissances dynamiquement.

  • RĂ©duction des hallucinations : le modĂšle apprend Ă  refuser de rĂ©pondre lorsqu’il ne dispose pas de l’information nĂ©cessaire, ce qui renforce la fiabilitĂ© des rĂ©ponses.

👀 C’est tout, pour le moment !

Si cette newsletter vous a plu, partagez la !

A la semaine prochaine !👋