- Limonaia.ai
- Posts
- đ€IActualiteÌs du 24 Septembre
đ€IActualiteÌs du 24 Septembre
Bonjour Ă toutes et Ă tous,
Comme chaque semaine, retrouvez toute lâactualitĂ© de lâIntelligence Artificielle !
7%
DâaprĂšs cette Ă©tude de Section, seulement 7% des personnes interrogĂ©es sont compĂ©tentes dans lâusage de lâIA. Ces personnes gagnent 1 journĂ©e et demi sur leur semaine. 57% des personnes interrogĂ©es commencent tout juste Ă sây intĂ©resser et 24% expĂ©rimentent rĂ©ellement les usages de lâIA.
Source : Section
Les deepfakes : une réponse innovante
La technologie des deepfakes, initialement utilisée pour rajeunir des acteurs ou faire revivre des célébrités dans les films, a rapidement évolué vers des usages plus préoccupants.
Depuis 2017, elle a été détournée pour créer de fausses vidéos pornographiques impliquant des célébrités. à l'époque, produire ces vidéos nécessitait plusieurs heures, voire des jours, et les résultats étaient souvent clairement artificiels.
Cependant, lâarrivĂ©e de l'IA gĂ©nĂ©rative a radicalement changĂ© la donne. DĂ©sormais, des outils accessibles permettent de gĂ©nĂ©rer des deepfakes hyperrĂ©alistes en quelques secondes. Cette accĂ©lĂ©ration a ouvert la voie Ă des abus graves : dĂ©sinformation Ă©lectorale, usurpation d'identitĂ©, arnaques financiĂšres, voire harcĂšlement sexuel ciblĂ©. Des escroqueries utilisant des deepfakes vocaux ont dĂ©jĂ causĂ© des millions de dollars de pertes.
Câest face Ă ce flĂ©au que Datambit, une startup britannique, a dĂ©veloppĂ© Genui, un modĂšle IA dĂ©diĂ© Ă la dĂ©tection des deepfakes. Il repĂšre les anomalies dans les vidĂ©os et les enregistrements audio, grĂące Ă des algorithmes de reconnaissance faciale et dâanalyse vocale. Genui peut identifier des manipulations subtiles en analysant des spectrogrammes audio et en comparant les voix Ă des Ă©chantillons authentiques.
Actuellement en phase de test, Datambit se concentre d'abord sur lâindustrie des services financiers, particuliĂšrement touchĂ©e par ces fraudes. Avec une prĂ©cision impressionnante (96% pour les vidĂ©os, 99% pour l'audio), la startup espĂšre transformer son produit en une arme majeure contre cette menace croissante.
L'IA Ă lâĂ©cole : risque ou opportunitĂ© ?
Une rĂ©cente Ă©tude rĂ©vĂšle que 70% des adolescents ont expĂ©rimentĂ© lâIA, bien que seulement 37% des parents en soient conscients. Parmi ces jeunes, plus de la moitiĂ© lâutilisent pour les devoirs, soulignant l'importance de l'IA dans l'Ă©ducation.
Face Ă cette rĂ©alitĂ©, les Ă©coles se divisent : certaines interdisent l'usage de l'IA, tandis que d'autres, confrontĂ©es Ă des pĂ©nuries dâenseignants et des coupes budgĂ©taires, y voient une solution.
OpenAI sâest rĂ©cemment engagĂ© dans le dĂ©bat en nommant Leah Belsky, ancienne responsable de Coursera, comme directrice gĂ©nĂ©rale de lâĂ©ducation.
OpenAI a lancĂ© une version de ChatGPT spĂ©cialement pour les Ă©coles. Ceux-ci peuvent s'en servir pour dĂ©mystifier des sujets complexes, amĂ©liorer leurs rĂ©dactions ou faire des recherches. Les enseignants, quant Ă eux, lâutilisent pour la correction, la planification de cours et la rĂ©daction de demandes de subventions.
LâIA est donc une rĂ©alitĂ© inĂ©vitable, et comme internet avant elle, elle suscite des inquiĂ©tudes lĂ©gitimes sur lâhonnĂȘtetĂ© acadĂ©mique. Pourtant, de plus en plus d'institutions reconnaissent son potentiel et cherchent Ă lâintĂ©grer de maniĂšre constructive dans le processus dâapprentissage.
Comment Tester les nouveaux LLM ?
Les derniers modĂšles d'IA, les LLM, posent un dĂ©fi inĂ©dit aux concepteurs de benchmarks : ils excellent tellement dans les tests existants quâil devient presque impossible de les diffĂ©rencier.
Les experts du Center for AI Safety (CAIS) et de Scale AI proposent une solution radicale : un test si complexe quâil mettrait des annĂ©es Ă ĂȘtre rĂ©solu par les modĂšles les plus avancĂ©s, et ils sollicitent lâaide du public pour formuler les questions.
Cette initiative est motivée par deux facteurs majeurs.
Tout d'abord, le modÚle révolutionnaire o1 d'OpenAI a surpassé les benchmarks de raisonnement les plus populaires, selon Dan Hendrycks, directeur exécutif du CAIS.
Ensuite, avec l'accumulation massive de données, il devient de plus en plus difficile de savoir si ces IA résolvent vraiment des problÚmes complexes ou se contentent de reproduire des réponses déjà vues.
Le projet, baptisĂ© "L'Ultime Examen de l'HumanitĂ©", a pour objectif de compiler les questions les plus ardues imaginables, provenant de domaines aussi divers que la science des fusĂ©es ou la philosophie analytique. Les questions soumises devront ĂȘtre originales, objectives et particuliĂšrement complexes pour les ânon-expertsâ.
Cette initiative pourrait bien redĂ©finir la maniĂšre dont nous Ă©valuons lâIA, en repoussant toujours plus loin les limites de leur comprĂ©hension. Et cette fois-ci, câest le public qui sera aux commandes.
đ Câest tout, pour le moment !
Si cette newsletter vous a plu, partagez la !
A la semaine prochaine !đ