Péché originel

You might know of the original sin

IA-Pulse
6 min ⋅ 21/04/2024

Bienvenue sur IA Pulse Weekend. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter.

⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins

Pour cette 54e édition (toutes les archives sont sur Substack), quelques changements. Ce ne sont plus 3 articles qui sont présents dans la première partie, mais 3 clusters qui regroupent plusieurs articles sur le même thème. Les sources sont précisées après le texte et vous pouvez accéder aux articles originaux.

Côté arrière-boutique, voilà comment ça fonctionne. Au cours de la semaine, après les avoir lus, je fais une sélection de plusieurs articles sur le même thème. Avant l’envoi de cette newsletter, ces articles sont résumés un à un par un modèle de langage. Puis ce même modèle fait un résumé global à partir des résumés précédents. Le modèle propose aussi 3 titres pour le cluster. Le résumé global est présenté ici après quelques modifications humaines, comme d’habitude je ne corrige pas tout, et je valide un des titres proposés.

Pour cette première fois, j’ai utilisé un modèle différent pour chacun des clusters : GPT-4 Turbo, Llama 3 70B et Claude 3 Opus. Llama 3 m’a bluffé.

Seconde nouveauté pour cette édition, vous trouverez en fin de newsletter quelques mots et un lien vers le numéro d’il y a un an. Parce que “C’était mieux avant”. Toujours.

Mais revenons au présent. Cette semaine on parle : de la sortie de Llama 3 et de meta(.)ai ; de Microsoft qui montre VASA-1, une démo hallucinante ; et du rapport annuel de Stanford sur l’IA. Pour réfléchir, on lit une étude qui montre que GPT-4 peut nous influencer plus efficacement qu’un de nos semblables, et on écoute l’enquête du New York Times sur les pratiques des géants de l’IA qui ont sciemment enfreint les droits d’auteur pour entrainer leurs modèles de langage.

Si vous avez des questions et des remarques, n’hésitez pas à me contacter. Bon weekend.

Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par les modèles dont je parle au-dessus. Comme d’habitude trop souvent j’ai fait quelques beaucoup de modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre LLama 3 et votre serviteur.
L’image d’illustration ci-dessous est générée par Midjourney.

📰 Les 3 infos de la semaine

⚒️ Llama 3, le nouveau modèle IA de Meta : open source, plus puissant et intégré à toutes les plateformes du géant des réseaux sociaux

Cette semaine Meta a lancé Llama 3, son dernier modèle de langage, marquant un tournant majeur dans sa stratégie d'intégration de l'IA dans ses services. Ce nouveau modèle, qui existe en versions de 8 et 70 milliards de paramètres, est notablement plus avancé que ses prédécesseurs et est disponible en open source, permettant ainsi une utilisation et une modification libres par le public. Llama 3 est intégré dans Meta AI, le chatbot de l'entreprise, désormais déployé dans les barres de recherche des applications principales de Meta comme Facebook, Messenger, Instagram et WhatsApp - pas encore disponible en France.

Meta continue de développer Llama 3, travaillant sur une version encore plus puissante avec 400 milliards de paramètres. Cette progression montre la volonté de Meta de rivaliser avec d'autres géants technologiques et de pousser les limites de l'intelligence artificielle.

Cependant, l'expansion de Meta AI soulève des défis, notamment en termes de modération du contenu en raison de réponses parfois incohérentes ou incorrectes générées par l'IA. Meta s'efforce d'améliorer continuellement la fiabilité de ses modèles IA. En outre, l'entreprise explore des améliorations dans la génération d'images et d'autres fonctionnalités multimédia, enrichissant ainsi l'interaction utilisateur et renforçant l'utilité pratique de ses applications. Ce développement ambitieux est un pas en avant pour Meta, visant à intégrer l'IA de manière plus poussée dans l'expérience quotidienne de ses milliards d'utilisateurs.

Sources : The New York TimesThe Wall Street JournalWiredTechcrunch - Cluster généré par gpt-4-turbo-2024-04-09

🪄 Le modèle d'IA VASA-1 de Microsoft, un tournant pour les avatars virtuels et l'IA conversationnelle

Microsoft vient de présenté VASA-1, un modèle d'intelligence artificielle révolutionnaire qui peut transformer une seule photo en une vidéo de personne qui parle, avec des mouvements de tête, des changements de regard et des expressions faciales. Ce modèle a juste besoin d’une photo statique et d’un fichier audio pour générer une vidéo.

VASA-1 est capable de générer des vidéos de haute qualité avec des mouvements de tête et des expressions faciales réalistes, et peut même appliquer des émotions spécifiques pour suivre le contenu du fichier audio. Les démos du modèle montrent des vidéos impressionnantes de personnes virtuelles qui parlent et qui ont des conversations réalistes.

Cependant, cette technologie soulève des inquiétudes quant à son potentiel d'être utilisée pour créer des vidéos trompeuses. Microsoft a donc décidé de ne pas rendre VASA-1 disponible pour le public et de ne pas le commercialiser dans un avenir proche.

Le modèle VASA-1 est actuellement un projet de recherche qui vise à générer des compétences visuelles affectives pour les avatars virtuels. Les images utilisées pour tester le framework sont des personnes virtuelles générées par des produits d'IA tels que StyleGAN2 ou Dall-E 3.

Microsoft espère que cette technologie pourra être utilisée pour améliorer les interactions avec les avatars virtuels et pour développer des produits plus réalistes. Cependant, la société reconnaît que cette technologie nécessite des réglementations appropriées pour éviter les utilisations malhonnêtes.

Sources : Silicon AngleVenture BeatBGR - Cluster généré par Llama 3 70B

🏭 Le rapport HAI 2024, l'IA à la croisée des chemins

Le rapport annuel de l'Institut Stanford pour l'intelligence artificielle (HAI) met en lumière une industrie de l'IA florissante, mais confrontée à des coûts croissants, à une réglementation accrue et à l'inquiétude du public. Le rapport souligne la difficulté d'obtenir un consentement éclairé pour la collecte de données d'entraînement des grands modèles de langage (LLM) et suggère d'assurer la transparence des pratiques de collecte de données.

L'industrie domine la recherche de pointe en IA, avec une tendance à l'augmentation des modèles open source. Cependant, les coûts d'entraînement des modèles de pointe ont presque doublé au cours de la dernière année, atteignant des niveaux sans précédent (par exemple, 78 millions de dollars pour GPT-4 d'OpenAI et 191 millions de dollars pour Gemini Ultra de Google). La rentabilité des investissements dans l'IA est remise en question, tandis que les réglementations liées à l'IA augmentent fortement aux États-Unis - tiens donc moi qui croyais que les réglementations ce n’étaient que pour l’Europe et que ça allait tuer l’industrie, ce qui pourrait accroître les coûts de mise en conformité.

Les gens - les “gens” Claude ? - sont de plus en plus conscients de l'impact potentiel de l'IA et plus nerveux à son sujet. L'absence de normes d'évaluation pour les LLM complique les efforts de comparaison systématique des risques et des limites des principaux modèles d'IA. Malgré ces défis, les investissements dans l'IA générative ont été multipliés par huit entre 2022 et 2023, et les États-Unis sont actuellement la principale source de systèmes d'IA notables.

Le rapport conclut que l'IA est confrontée à deux futurs interdépendants : l'un où la technologie continue de s'améliorer et d'être de plus en plus utilisée, avec des conséquences majeures sur la productivité et l'emploi, et l'autre où l'adoption de l'IA est limitée par les contraintes de la technologie.

Sources : NatureThe RegisterVenture Beat - Cluster généré par Claude 3 Opus


🧠 L’article qui fait réfléchir - et qu’il faut absolument lire

Débattre avec une IA peut vous faire changer d'avis

And wake up to a brand new day, To find your dreams are washed away

Les grands modèles de langage, comme GPT-4, sont-ils capables de nous influencer ? Une récente étude de l'EPFL de Lausanne a montré que oui, et de manière significative. Lorsqu'un modèle de langage a accès à nos données personnelles, il peut adapter ses arguments pour nous convaincre bien plus efficacement que des êtres humains ayant accès à ces mêmes données. Les résultats de l'étude sont assez “perturbants” : les participants qui ont débattu avec la version de GPT-4 ayant accès à leurs données personnelles, avaient 81,7% de chances en plus d'être d'accord avec leur adversaire par rapport à ceux qui ont débattu avec des êtres humains dans les mêmes conditions.

Cela soulève des questions importantes sur l'impact potentiel de ces modèles de langage sur notre société et notre démocratie. Pourraient-ils être utilisés pour influencer nos opinions et nos décisions, notamment lors des élections ou lors de campagnes commerciales ? Comment pouvons-nous nous protéger contre cette forme de persuasion?

Mais il est également important de se demander pourquoi les êtres humains qui ont accès aux mêmes données personnelles que l'IA ne les utilisent pas aussi efficacement à des fins de persuasion. Qu'est-ce qui rend es êtres humains moins efficaces que les modèles de langage dans la persuasion ? - La morale ? Nan, je rigole. Est-ce leurs capacités à analyser de vastes quantités de données, ou leur aptitude à adapter leurs messages en fonction de nos préférences et de nos croyances qui font des modèles de langage des influenceurs redoutables ?

Il faut surement aussi se demander si nous sommes prêts à laisser les modèles de langage influencer nos opinions et nos décisions. Devrions-nous les considérer comme des outils neutres, ou comme des instruments de pouvoir qui peuvent être utilisés pour manipuler les gens ? Comment devons-nous et pouvons-nous réguler l'utilisation de ces technologies pour éviter les abus et protéger la démocratie ?

Il est essentiel que nous ouvrions le débat sur les questions éthiques et de pouvoir de persuasion qui se posent autour des modèles de langage. Nous devons réfléchir à la façon dont nous voulons que ces technologies soient utilisées dans notre société, et prendre des mesures pour protéger notre liberté d'expression, notre démocratie et notre libre arbitre.

Nous devons surtout nous assurer que les développeurs de ces technologies prennent en compte les implications éthiques de leurs créations, et qu'ils travaillent à développer des modèles de langage qui sont transparents, responsables et éthiques - n’ayez pas peur, Meta a sorti LLama 3 et intégré ce LLM dans tous ses produits et applications, uniquement pour le bien de l’humanité. Comme c’est en “open-source”, tout va bien. Dormons tranquilles.

📻 Le podcast de la semaine

A.I.’s Original Sin

Ce podcast nous parle d’une enquête du New York Times qui révèle que les géants de la technologie comme OpenAI, Google et Meta ont enfreint leurs propres règles pour former leurs systèmes d'IA, en utilisant massivement des données protégées par le droit d'auteur comme des vidéos YouTube ou des livres. Des poursuites judiciaires remettent en question la légalité de ces pratiques. Si elles aboutissent, cela pourrait compromettre le développement futur de l'IA, qui a besoin de volumes colossaux de données.


👨🏽‍🦳👩🏽‍🦳 C’était mieux avant - Il y a 1 an

Dans le premier numéro d’IA-Pulse Weekend, on parlait d’AUTO-GPT, BabyAGI, JARVIS, Smallville. Que sont-ils devenus depuis ? Nul ne le sait vraiment.
On évoquait aussi les questions sur notre schizophrénie face aux outils technologiques, en particulier ChatGPT - qui je le rappelle n’était pas encore connecté à Internet à cette époque. La préhistoire.
La semaine des agents


N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai

Bon weekend !


IA-Pulse

Par Olivier Martinez

Je navigue d'un neurone à l'autre .