Let's go crazy
Bienvenue sur IA Pulse Weekend. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter.
Alors, est-ce qu’OpenAI va sortir son moteur de recherche le 9 mai ? Est-ce que Google doit s’inquiéter ? Est-ce que l’arrivée de Gemini directement dans Google Chrome, ou la SGE vont permettre à Google de garder la main ? Est-ce que Perplexity montre comment utiliser efficacement un moteur de recherche couplé à un LLM, devenant alors un moteur de réponse ? Est-ce que la version desktop de Arc Browser avec ses fonctionnalités de “résumé” et de “browse for me” va devenir un standard ? Je n’en sais rien. Je ne fais pas de voyance.
Ce que je sais c’est qu’encore une fois notre manière d’accéder à l’Information (avec un grand i) change sous nos yeux. Refuser de le voir sous prétexte que les stats d’audience de Google n’ont pas bougé depuis 1 an, c’est aussi peu propice à la réflexion que de dire, il y a aussi 1 an, que “ChatGPT va tuer Google en quelques semaines”.
En parallèle, ce qui est frappant c’est de voir tous ces géants du numérique et de l’IA qui semblent vouloir en permanence affaiblir les médias. Apple news es-tu là ? Un seul être vous manque… Bon OK, la France restait une exception avec ce widget qui avait disparu de nombre d’autres pays. Mais les médias d’ici s’y étaient bien habitués. La dépendance tue, à qui la faute ? - ah ça ferait peut-être un bon titre pour Discover ça. Manque une belle image.
Cette semaine, GPT-4 et moi-même, nous vous proposons un spécial OpenAI en 3 actus : Memory, premier clip vidéo avec Sora et sombre histoire de gros sous et de procès. Et pour réfléchir, laissons Claude nous parler de nos doubles digitaux.
Enfin je vous invite à écouter 2 podcasts - ça va, vous avez le temps, vous êtes au milieu d’un long weekend de 10 jours. Le premier nous parle du langage et de la pragmatique. Le second, enregistré il y a deux ans, m’est revenu en mémoire quand McKinsey a communiqué son “étude” cette semaine. On y parle de projet IA.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par GPT-4 pour les résumés des articles sources, ainsi que pour la génération du cluster et de son titre. Comme d’habitude trop souvent j’ai fait quelques beaucoup de modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre de Claude-3 Opus et votre serviteur tout seul.
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
OpenAI a déployé cette semaine une fonctionnalité de mémoire, “Memory” pour ChatGPT, permettant au chatbot de retenir les préférences des utilisateurs et d'améliorer la personnalisation des réponses. Cette fonctionnalité est disponible pour les abonnés payants de ChatGPT Plus, bien qu'elle soit exclue des marchés européens et coréens en raison de préoccupations liées à la confidentialité des données- RGPD forever.
Memory permet à ChatGPT de se souvenir des préférences explicitement communiquées par les utilisateurs, comme les formats de notes de réunion ou les centres d'intérêt personnels. Les utilisateurs peuvent gérer ces souvenirs via l'option "Manage memories", qui permet aussi de supprimer des informations spécifiques ou tout l'historique. La mémoire est limitée aux informations textuelles et ne permet pas de rappels automatiques, mais elle peut rappeler des échéances mentionnées dans les conversations.
Pour les interactions ponctuelles, OpenAI propose des "chats temporaires", où l'historique n'est pas conservé. Ces chats ne permettent pas d'accéder aux souvenirs enregistrés. De plus, OpenAI permet aux utilisateurs de consulter leur historique de conversations même s'ils optent pour ne pas partager leurs données pour l'entraînement des modèles, offrant ainsi un meilleur contrôle sur la confidentialité.
Bien que Memory apporte des avantages en termes de personnalisation, les questions de confidentialité persistent. OpenAI s'efforce de concilier l'amélioration de l'expérience utilisateur avec la protection des données - rires très gras.
Le réalisateur Paul Trillo et l'artiste indie Washed Out, de son vrai nom Ernest Weatherly Greene Jr., ont collaboré pour créer un clip vidéo pour la chanson "The Hardest Part" en utilisant le modèle d'intelligence artificielle Sora de OpenAI. Ce modèle, qui n'est pas encore disponible pour le grand public, permet de générer des clips vidéo réalistes à partir de prompts textuels. Trillo a exploité cette technologie pour assembler un clip de quatre minutes constitué de 55 séquences sélectionnées parmi 700 générées, qui simulent un zoom continu à travers divers scènes de vie, réalisant ainsi une vision qu'il avait imaginée dix ans auparavant mais qu'il avait dû abandonner faute de moyens techniques adaptés à l'époque.
Le processus créatif a impliqué l'écriture de prompts détaillés pour guider la création des scènes, une approche qui permet de contourner les coûts et contraintes des productions traditionnelles. Ces séquences ont été montées dans Adobe Premiere. Adobe annonce d’ailleurs son intention d’intégrer des modèles comme Sora directement dans ses logiciels à l'avenir - ça tombe bien. Cette intégration vise à simplifier le flux de travail pour les créateurs qui utilisent l'IA pour générer du contenu vidéo.
Le projet de Paul Trillo montre le potentiel de l'IA pour transformer les méthodes de production dans les arts visuels et la musique, permettant aux artistes de repousser les limites de la créativité sans les contraintes budgétaires habituelles. Toutefois, l'utilisation de l'IA dans la création artistique n'est pas exempte de controverses. Des préoccupations éthiques émergent, notamment concernant les droits d'auteur et l'utilisation non consentie d'œuvres artistiques humaines pour entraîner des modèles d'IA.
Pour regarder le clip et vous faire un avis : https://vimeo.com/941713443
😏Merci pour ce titre GPT !!! Il ne veut rien dire, et pourtant… y’a une idée.
OpenAI, une entreprise de premier plan dans le domaine de l'intelligence artificielle - oui GPT tu as raison, a développé des partenariats avec plusieurs grands éditeurs de journaux pour utiliser légalement leur contenu dans la formation de ses modèles d'IA, tels que ChatGPT. Après Springer ou Le Monde, cette semaine le Financial Times a annoncé avoir conclu un accord avec OpenAI, visant à incorporer “du journalisme de qualité” pour améliorer la précision des réponses générées par l'IA et réduire les incidents de fabrication d'informations par les modèles, connus sous le terme de "hallucinations" - “les incidents de fabrication d’informations par les modèles”, celle-ci je la garde merci GPT !
Ces partenariats sont présentés comme des collaborations stratégiques. Ils permettent aux éditeurs de tirer un revenu direct de l'utilisation de leur contenu, tout en explorant le potentiel de l'IA pour enrichir l'expérience de leurs lecteurs - à lire le billet Frédéric Filloux sur le sujet.
Mais cette stratégie d'OpenAI n'est pas exempte de controverses et suscite des litiges importants. Cette semaine aussi, plusieurs journaux, dont le New York Daily News et le Chicago Tribune, propriétés d'Alden Global Capital, ont porté plainte contre OpenAI et Microsoft. Ces journaux accusent les deux sociétés d'utiliser sans autorisation leurs articles pour entraîner leurs technologies d'IA, en violation des droits d'auteur. Ils affirment que cette pratique nuit à leurs revenus en permettant aux utilisateurs d'accéder à du contenu normalement protégé par des paywalls, sans générer de trafic vers les sites originaux ou de compensation financière pour les éditeurs.
Les plaintes mettent en lumière un problème plus large lié à l'utilisation des données en ligne et des contenus protégés par le droit d'auteur dans le développement rapide des technologies d'IA. En réponse, OpenAI et Microsoft ont défendu leurs pratiques, en invoquant des arguments juridiques qui comparent les modèles d'IA à d'autres technologies ayant des utilisations légitimes malgré le potentiel de mauvais usage - gros rires gras…
L'essor fulgurant de l'intelligence artificielle transforme de nombreux secteurs d'activité en permettant la création de "jumeaux numériques". Ces avatars virtuels, générés à partir des données personnelles des individus, sont capables de se substituer aux humains pour réaliser des tâches spécifiques. Des startups pionnières comme AI Fashion, Brox AI et Unlearn ouvrent la voie à cette révolution technologique, qui soulève autant d'espoirs que de questions sur le plan éthique et sociétal.
Dans l'industrie de la mode, AI Fashion utilise des photos de mannequins réels pour générer de nouvelles images d'eux portant différents vêtements. Cette technologie permet aux marques de créer des campagnes publicitaires et des sites e-commerce ultra-personnalisés, tout en réalisant des économies substantielles par rapport aux séances photo traditionnelles.
Les études de marché sont également bouleversées par l'IA. Brox AI a ainsi créé des jumeaux numériques de 27 000 individus, permettant aux entreprises d'obtenir instantanément des réponses à leurs questions, comme si elles interrogeaient un véritable panel de consommateurs. Cette approche réduit considérablement les coûts et les délais des études de marché classiques.
Dans le domaine médical, Unlearn utilise l'IA pour générer des jumeaux numériques de patients, afin de prédire l'évolution de leur maladie. Cette innovation pourrait rendre les essais cliniques plus efficaces et plus éthiques, en permettant à davantage de participants de bénéficier du traitement expérimental, et non d'un placebo.
Si ces entreprises affirment que les humains conserveront un rôle central, notamment en fournissant les données nécessaires à la création des jumeaux numériques, l'impact de cette technologie sur l'emploi suscite de vives inquiétudes. Il est crucial de mettre en place des politiques de formation et de reconversion pour accompagner les travailleurs des secteurs concernés.
Au-delà des enjeux économiques, l'utilisation de l'IA soulève de profondes questions éthiques. Comment garantir le consentement éclairé des individus dont les données sont utilisées pour créer des jumeaux numériques ? Comment s'assurer qu'ils soient justement rémunérés pour cela ? Quelles pourraient être les dérives d'une technologie aussi puissante si elle n'était pas suffisamment encadrée ?
Il est également légitime de s'interroger sur les limites de l'IA. Un jumeau numérique peut-il réellement capturer toute la complexité et la singularité d'un être humain ? Les insights générés seront-ils aussi riches et nuancés que ceux apportés par de vraies personnes ? Dans le champ médical, est-il envisageable de prendre des décisions thérapeutiques sur la seule base de simulations virtuelles ?
Bien que l'IA puisse reproduire certaines tâches humaines de manière bluffante, elle doit rester un outil au service de l'humain. C'est aux professionnels de chaque secteur qu'il reviendra d'apprendre à utiliser ces nouvelles capacités de manière pertinente et responsable, sans pour autant renoncer à leur expertise et à leur sensibilité propres.
L'émergence des jumeaux numériques illustre parfaitement le potentiel et les défis de l'IA générative. Pour façonner un avenir où cette technologie décuplera les capacités humaines sans éclipser notre singularité - toujours étrange quand un modèle de langage parle comme s’il faisait partie de la grande famille des unités carbone - il est indispensable de mener une réflexion approfondie sur ses enjeux éthiques et ses modalités de déploiement. Cela passera par une collaboration étroite entre les acteurs publics, privés, académiques et la société civile, afin de définir un cadre protégeant les droits des individus tout en libérant le potentiel de l'innovation. C'est à ce prix que nous pourrons faire de l'intelligence artificielle un outil au service du progrès et du bien commun.
Dans cette chronique, Laélia Véron explore la pragmatique et la syntaxe. Les phrases assertives, interrogatives et injonctives peuvent être des actes de langage directs ou indirects. Ce que les LLM actuels sont loin de maitriser.
Tout premier épisode du podcast “Les carnets de l’IA”, il y a 2 ans. Au micro de Manuel Davy, Vincent Béhague nous parlent des entreprises adoptant l'IA qui doivent identifier un besoin spécifique. Que l'accès aux données est crucial, et que le management doit accepter l'incertitude, en adoptant une approche Test & Learn.
Il y a un an, on parlait déjà de la protection des données dans ChatGPT, de l’accroissement de la productivité attendue par les entreprises, et d’une radio qui avait organisé une journée 100% IA, laissant des modèles d’IA créer tous les contenus de la journée. Un an après, tout ça n’a pas tellement changé.
Protège-moi, protège-moi
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Bon weekend.