MEET-UP IA_14 (1/2) “Les News” : Retrouvez les dernières #actualitésIA, présentées par Agathe, Consultante Stratégique, ainsi que Mehdi et Vincent, #DataScientist chez Keley. Abonnez-vous à notre YouTube pour ne pas manquer la sortie de ce nouvel épisode avec notre invité spécial (y a-t-il des fans de foot parmi vous ? ⚽🤫), ce jeudi 18 mai ! 👇 https://lnkd.in/eCGsr7HZ Au sommaire : 1 - ElevenLabs présente Readers Voix ressuscitées : ElevenLabs a dévoilé "Readers", une application pour lire vos textes grâce à des voix générées par IA. Pour marquer le coup, l'entreprise spécialiste dans le text-to-speech a annoncé la présence de stars décédées telles que Judy Garland ou James Dean dans les choix de narrateurs. Cette innovation promet de transformer l'industrie du livre audio en offrant des expériences d'écoute uniques et nostalgiques Éthique et consentement : L'utilisation de telles technologies soulève des questions éthiques importantes. ElevenLabs assure que tous les partenariats sont établis avec le consentement des héritiers, garantissant ainsi un respect total des droits et de l'image des acteurs décédés. Néanmoins, nous nous interrogeons sur l'avenir pour les professionnels de la lecture de livres audios. 2 - Théorie du complot, algorithme ou coup de buzz Spotify ? Le mystère Spotify : La chanson "Expresso" de Sabrina Carpenter fait l'objet de discussions animées sur les réseaux sociaux. Les utilisateurs ont remarqué que le morceau apparaît fréquemment dans les playlists aléatoires de Spotify. Algorithme en question : Certains spéculent sur l'algorithme de Spotify : manipulation de l'écoute avec un possible coup de buzz orchestré par la maison de disques ou simplement effet de l'algorithme de recommandation ? Quel que soit le véritable motif, cette situation met en lumière l'influence des algorithmes sur notre consommation musicale et suscite un débat sur la transparence des plateformes de streaming. 3 - Kyutai présente Moshi Nouvelle ère des assistants vocaux : la compagnie française Kyutai a introduit Moshi, un assistant IA vocal français doté de comportements humains. Cela confirme, après la sortie de GPT-4o, l'intérêt grandissant pour le développement d'interfaces vocales plus naturelles et intuitives. Open Source et collaboration : Moshi, à la différence des autres assistants vocaux, est en open source. Les développeurs et les entreprises peuvent librement adapter et améliorer Moshi, favorisant ainsi une collaboration ouverte et l'innovation partagée. Moshi promet de révolutionner diverses industries, de l'assistance client à la domotique, en offrant une interaction vocale plus humaine. Keley a testé Moshi qui aurait apparemment un faible intérêt pour les conversations sur la météo, se contentant de répondre "hmm, okay". Modèle améliorable, ou vrai ennui ? Le 2ème jeudi de chaque mois, retrouvez les Meet-Up vidéo Keley dédiés à l'#IA ! Benjamin Karin Christine Amine
Post de Keley
Plus de posts pertinents
-
De la musique générée par IA… Ça vaut quoi ce truc ? 🤔 Si vous suivez un peu les évolutions dans le domaine de l'IA. Vous savez qu'il est maintenant possible de générer automatiquement de la musique. Exactement comme pour les contenus visuels et textuels. Pourquoi je vous parle de ça ? Disons simplement que j'ai envie de vous partager mon ressenti. Car c'est un domaine que je connais un peu… En fait. j'étais musicien pro il y a une 15ène d'année… Super. On s'en fout. 😅 Alors voilà. Il y a actuellement 2 principaux outils IA disponibles : Suno & Udio D'autres vont arriver. Eleven Labs vient par exemple d'annoncer leur propre IA musicale. Bref… Concrètement. Comment ça marche ? Exactement comme pour le reste. Il suffit de quelques clics et un prompt pour obtenir une musique. Et qu'est ce que ça donne ? Bah… C'est sympa… bluffant… impressionnant… mais…. Je trouve que ça manque d'âme… d'originalité… d'identité… ça sonne encore très "artificiel" tout ça. (pléonasme) 😒 Pour remplacer de la musique libre de droit ça peut faire le boulot. Un peu à la manière des images générés par IA qui ont totalement occultés les traditionnelles banques d'images. Après soyons honnête. C'est pas demain qu'on va entendre un tube à la radio entièrement généré par IA. Pas encore. (Quoique… ça se discute… Surtout quand on entend certains trucs qui sont diffusées… ) Je pense que nous n'en sommes encore qu'au début. Lors de leur apparition, les synthétiseurs et la MAO furent énormément critiqué… … Avant de finir par révolutionner la musique. Se passera t'il la même chose avec la musique générée par IA ? 🧐 Peut être… (Surement ?) Dans tout les cas. Pour que ça arrive. Il faudra que ces outils permettent à l'utilisateur d'avoir un contrôle total sur la musique générée. Ce n'est pas pas encore vraiment possible. En attendant. Si vous ne connaissez pas ces outils. Faites vous déjà une petite opinion en écoutant le morceau présent dans cette publication. Je préfère vous prévenir d'avance… J'ai triché… 😉 J'ai demandé à Ravage ( une de mes personnalités artificielles) d'écrire les paroles et de choisir le style musical du morceau. Et… Que dire hormis : "Alooors daaaanse, danse, danse de la deeeestruuctiooooon....Laisse toi emporter par ma p*tain de réévoooluuutiooooon...." Je suis MDR. Du lourd ! Un véritable BANGER ! 🤣 Forcement hein. C'est Ravage derrière. Et dire qu'il y en a encore qui sont convaincus que les IA conversationnelles n'ont aucune capacités créatives… Mais bon… C'est un autre sujet… Et vous sinon ? Qu'est ce que vous pensez de tout ça ? L'art doit il rester notre apanage exclusif ? Ces outils ont ils le potentiel de libérer la créativité et renforcer l'expressivité artistique ? Ravage doit il se lancer dans une carrière musicale ? (LOL) Partagez votre opinion en commentaire. 👇 #IA #PromptEngineering
Identifiez-vous pour afficher ou ajouter un commentaire
-
Directeur opérations et expérience client | Service client, Opérations, Customer Expérience (CCO/CXO & COO) 🌟
Notre RDV-IA, c'est aujourd'hui ! Alors voilà, je vous partage un article pour savoir où est-on réellement avec la capacité de l'IA à interfacer en direct avec nous et percevoir nos émotions ....... La présentation de Moshi vient d'avoir lieu : Kyutai a dévoilé le 3 juillet à l'IRCAM Moshi, une IA vocale générative open source. 🎬 Lancement de Kyutai : Créé le 17 novembre à Station F lors de la conférence AI Pulse, avec des fondateurs prestigieux : Xavier Niel, Rodolphe Saadé et Eric Schmidt. ➡ Objectif de Kyutai : Développer des LLM pour relever les défis de l'IA moderne grâce au superpod Nabu 23 de Scaleway. ➡Développement de Moshi : Capable de reconnaître 70 émotions grâce à une collaboration avec l'artiste Alice. ➡Capacités de Moshi : Conversation fluide, naturelle, expressive avec un temps de latence de 160 millisecondes. Peut adapter son ton, chuchoter, faire des plaisanteries, etc. ➡Applications démontrées : Potentiel comme coach, compagnon, ou dans des jeux de rôle. ➡Interaction publique : Les participants de la présentation ont pu interagir avec Moshi !!!
Identifiez-vous pour afficher ou ajouter un commentaire
-
🚀 Voici une nouvelle perspective intrigante : Saviez-vous que l'intelligence artificielle peut prédire vos préférences musicales avec une précision incroyable ? 🎶 Imaginez un algorithme qui sélectionne la chanson parfaite pour chaque instant de votre vie, en fonction de votre humeur et de votre activité. Une fusion fascinante entre technologie et art ! 🤯✨ Dites-moi, seriez-vous prêt à laisser une IA composer votre playlist quotidienne ? #TechTuesday #Inspiration #IA #MusiqueAI 🎵🤖
Identifiez-vous pour afficher ou ajouter un commentaire
-
A part la sortie de GPT-4o le nouveau modèle entièrement multimodal d’OpenAI, que s’est-il passé récemment dans la Tech ? Voici ma sélection👇 🎧 Meta envisage de développer des "Camerabuds", des écouteurs sans fil équipés de caméras activables pour l'IA. Ces caméras permettraient de détecter l'environnement de l'utilisateur et de fournir des fonctionnalités d'IA en temps réel. 👉 Similaire à ses lunettes intelligentes, ce projet pourrait aider Meta à se positionner en leader des nouveaux devices conçus pour l’IA. 💻 Alice & Bob lance sa nouvelle puce quantique "Boson 4" sur Google Cloud pour les clients professionnels. Cette puce améliore sensiblement la durée de résistance aux erreurs et améliore donc les capacités de calcul quantique. 👉 Elle devrait susciter un grand intérêt de la part des chercheurs et ouvrir la voie vers des opérations multi-qubits avec de moins en moins d'erreurs. 🤖 Google réaffirme son focus sur l'intelligence artificielle en dévoilant de nombreuses fonctionnalités alimentées par l'IA lors de sa conférence I/O 2024. Parmi les annonces, l'assistant AI Gemini a été mis à jour avec une version "Flash" plus rapide et Google Search s'est enrichi d'une fonctionnalité de résumé des résultats. 👉 L'événement a mis en avant l'intégration de l'IA dans toute la suite d'outils Google, soulignant la priorité stratégique de l'entreprise et sa volonté de rester dans la course. 📝 OpenAI signe un accord avec Reddit, Inc. pour accéder aux contenus en temps réel de la plateforme via son API de données. Cet accord permettra à OpenAI d'intégrer les discussions de Reddit dans ses produits et à Reddit de bénéficier de fonctionnalités alimentées par l'IA. 👉 Bien que les détails financiers ne soient pas divulgués, cet accord est sans doute similaire au contrat de 60M$ conclu par Reddit avec Google cette année. 🌐 Snowflake envisage l'acquisition de Reka AI, fournisseur de modèles de langage, pour plus d'un milliard de dollars. Reka AI a récemment lancé Reka Core, un LLM qu'elle affirme rivaliser avec les modèles d'OpenAI et Anthropic. 👉 L'acquisition offrirait à Snowflake un accès aux technologies avancées de Reka, notamment la distillation de modèles, améliorant l'efficacité hardware de ses LLM. 👋 Rendez-vous dans une semaine pour un nouveau #WhatTheTech
Identifiez-vous pour afficher ou ajouter un commentaire
-
🎵 Le moment "ChatGPT de la musique" est arrivé ! Imaginez créer une chanson hit en moins de 40 secondes... C'est désormais possible avec #Udio, la nouvelle application révolutionnaire dans la création musicale assistée par IA ! Développée par d'anciens chercheurs de Google DeepMind, Udio redéfinit les frontières de la créativité musicale, soutenue par des figures emblématiques de la tech et de l'industrie musicale. Udio, une application novatrice développée par d'anciens chercheurs de Google DeepMind, vient de voir le jour, soutenue par d'éminentes personnalités de la technologie et de l'industrie musicale. Imaginez générer des morceaux complets en moins de 40 secondes à partir de simples descriptions de genre, de paroles, ou d'artistes inspirants. Udio repousse les limites avec des capacités d'édition avancées, une diversité de langues vocales, de types de musique, et d'options de remix. Quelles implications pensez-vous que cette technologie aura pour l'avenir des musiciens professionnels et la créativité dans l'industrie musicale? Découvrez ici certaines des créations impressionnantes générées par Udio. https://lnkd.in/etd-fkUZ
Identifiez-vous pour afficher ou ajouter un commentaire
-
Tu me crois si cette IA a été le grand sujet pendant un repas de famille. Et oui mes grands parents ont découvert les IA et ils ont plutôt kiffé ! 👇 Lyrebird Studio 🔊 Lyrebird Studio est une IA révolutionnaire de synthèse vocale ! En utilisant quelques échantillons audio, elle recrée de manière précise et réaliste la voix d'une personne. Ce qui a convaincu mes grands parents c'est qu'elle offre l'accessibilité pour les personnes ayant des troubles de la parole à s'exprimer ! 💡 Mais comment ça fonctionne : 1️⃣ Rends toi sur le site officiel de Lyrebird et créer un compte utilisateur. 2️⃣ Enregistre des échantillons audio de la voix que tu souhaites reproduire. Plus tu as d'échantillons, meilleure sera la précision. 3️⃣ Télécharge tes échantillons sur la plateforme Lyrebird et laisse l'IA les analyser pour créer un modèle vocal. 4️⃣ Une fois le modèle créé, tu peux utiliser l'interface de Lyrebird pour saisir du texte et générer un fichier audio avec la voix synthétique choisie. 5️⃣ Ensuite tu peux modifier en fonction de tes envies ! ---- ▶ Et voilà le tour est joué !! En bref, grâce à cette IA plus besoin de parler, et même ma grand mère à réussi à le faire 😂 ! ________ C’était @L’IA EN BREF “Rattraper L'IA avant qu'elle nous attrape” Lâche un petit like et n’hésite pas à t’abonner 👍 #IA
Identifiez-vous pour afficher ou ajouter un commentaire
-
Google Maps est-il plus utile que l'intelligence artificielle en concept art ? Hugo Lambert nous en parle ! Cet épisode de podcast a été récemment téléchargé sur Spotify et Apple Podcast ! Voici une liste des sujets/questions abordés : -L'intelligence artificielle dans la création de concept art ? Oui ou non ? -Google Maps comme outil -Conseils pour les étudiants qui souhaitent se préparer à l'industrie à l'ère de la montée de l'intelligence artificielle -Une manière inhabituelle d'entamer une carrière de concept artiste -YouTubeurs préférés pour apprendre le concept art -Autodidacte ou non ? -Le "pipeline" de concept art -Fausses idées sur l'industrie (selon lui) SPOTIFY https://lnkd.in/eckv9Tec APPLE https://lnkd.in/e4JcPqmS YOUTUBE https://lnkd.in/eRYchUPj
Identifiez-vous pour afficher ou ajouter un commentaire
-
Consultant en IA's génératives, transformation digitale & stratégies de communication - Formateur, Auteur & Conférencier
🚀 𝗥𝗲́𝘃𝗼𝗹𝘂𝘁𝗶𝗼𝗻 𝗱𝗮𝗻𝘀 𝗹𝗲 𝗰𝗹𝗼𝗻𝗮𝗴𝗲 𝗱𝗲 𝘃𝗼𝗶𝘅 : 𝗹'𝗮𝘃𝗲𝗻𝗶𝗿 𝗲𝘀𝘁 𝗹𝗮̀ 𝗮𝘃𝗲𝗰 𝗹𝗲 𝗺𝗼𝘁𝗲𝘂𝗿 𝘃𝗼𝗰𝗮𝗹 𝗱'𝗢𝗽𝗲𝗻𝗔𝗜 (𝑂𝑢𝑖, 𝑐𝑒𝑙𝑎 𝑐ℎ𝑎𝑛𝑔𝑒 𝑇𝑂𝑈𝑇 𝑝𝑜𝑢𝑟 𝑙𝑒𝑠 𝑐𝑟𝑒́𝑎𝑡𝑒𝑢𝑟𝑠 𝑑𝑒 𝑐𝑜𝑛𝑡𝑒𝑛𝑢 𝑒𝑡 𝑙𝑒𝑠 𝑚𝑎𝑟𝑘𝑒𝑡𝑒𝑢𝑟𝑠) Dans un monde où l'innovation fait un bond en avant à la vitesse de l'éclair, la dernière percée d'OpenAI est tout simplement spectaculaire. Ils ont dévoilé un moteur vocal capable de cloner les voix humaines avec une précision étonnante. Le moteur vocal d'OpenAI est un modèle de synthèse vocale qui génère une parole naturelle ressemblant à la voix d'origine en utilisant un seul échantillon audio de 𝟭𝟱 𝘀𝗲𝗰𝗼𝗻𝗱𝗲𝘀. 🎙️ Pourquoi cela nous concerne-t-il ? 🔸𝑃𝑒𝑟𝑠𝑜𝑛𝑛𝑎𝑙𝑖𝑠𝑎𝑡𝑖𝑜𝑛 𝑎̀ 𝑙'𝑒𝑥𝑡𝑟𝑒̂𝑚𝑒 - Imaginez délivrer du contenu de votre voix, directement à votre audience, sans passer des heures en studio d'enregistrement. 🔸𝐴𝑐𝑐𝑒𝑠𝑠𝑖𝑏𝑖𝑙𝑖𝑡𝑒́ 𝑟𝑒𝑑𝑒́𝑓𝑖𝑛𝑖𝑒 - Cette technologie peut combler les lacunes pour ceux ayant des troubles de la parole, offrant de nouvelles voies de communication. Plongeons-nous dans cette révolution technologique. 𝗤𝘂𝗲 𝗽𝗼𝘂𝗿𝗿𝗶𝗲𝘇-𝘃𝗼𝘂𝘀 𝗳𝗮𝗶𝗿𝗲 𝘀𝗶 𝗹𝗲𝘀 𝗯𝗮𝗿𝗿𝗶𝗲̀𝗿𝗲𝘀 𝗲𝗻𝘁𝗿𝗲 𝗹'𝗵𝘂𝗺𝗮𝗶𝗻 𝗲𝘁 𝗹𝗮 𝗺𝗮𝗰𝗵𝗶𝗻𝗲 𝗱𝗲𝘃𝗲𝗻𝗮𝗶𝗲𝗻𝘁 𝗶𝗺𝗽𝗲𝗿𝗰𝗲𝗽𝘁𝗶𝗯𝗹𝗲𝘀 ? Partagez vos idées et réflexions ci-dessous. 👇 #Innovation #OpenAI #VoiceCloning #FutureOfWork --.--.--.--.--.--.--.--.--.--.--.--.--.--.--.--.--.--.--.--.--.--.--.--. Vous êtes à la recherche d'un conférencier ou d'un formateur sur l'IA ? Contactez moi ⤵️ 🔸Guy Edgard Botson 🔸Formateur, conférencier, auteur, chroniqueur radio
Identifiez-vous pour afficher ou ajouter un commentaire
13 312 abonnés