Merci à la Banque Transatlantique Belgium pour son accueil à l'occasion d'un workshop dédié à l'IA, atelier animé et plein d'échanges constructif. Et quelle bonne idée d'organiser celui-ci au Café Joyeux de Bruxelles, un endroit inspirant et accueillant ! Pour une banque privée de gestion de fortune comme la Banque Transatlantique, l'intelligence artificielle offre de nombreuses opportunités mais pose aussi avant tout la question de la sécurité et de la confidentialité. En effet, comment assurer la confidentialité totale des informations qui sont communiquées à des outils d'IA équivalents à #chatgpt ? J'ai présenté l'approche des SLM (Small Language Models) et des RAGs (outils de connexion à des IA) qui peut aller jusqu'à fonctionner en cercle fermé, sans aucune communication vers l'extérieur d'un réseau sécurisé.
Post de Dominique Mangiatordi
Plus de posts pertinents
-
📢📢📢 Retour sur les interventions du Forum du gf2i - Groupement français de l'industrie de l'information 2024, savamment orchestrées par Philippe MASSERON, administrateur du gf2i, dont le fil rouge était : 📌"La nouvelle #valorisation économique des #données pour l'#IA : de l’ombre à la lumière" 📌 📅 Paris, 11 juin 2024 🎯Dans la troisième séquence, Aurore Hyde, professeure agrégée de droit privé et sciences criminelles (Université de Reims Champagne-Ardenne), a proposé une réflexion sur la #loyauté de l’IA et les implications #éthiques de l’utilisation des données et des #algorithmes intelligents. Ce principe de loyauté, indispensable pour pallier nos manques de vigilance éventuels et assurer la préservation des grands intérêts collectifs, ne figure pourtant pas expressément dans les textes de #réglementation de l’IA et a été mis en avant par la CNIL. Aurore Hyde a souligné que l’exigence de #transparence est nécessaire, même pour des systèmes d’intelligence artificielle à faible risque comme les IA génératives. Il s’agit notamment de répondre aux questions comment (par l’explicabilité), pourquoi (par la justification), d’assurer les utilisateurs que ce qui est annoncé est réalisé et d’apporter la fiabilité des résultats proposés. #forumgf2i2024 #gf2i #data #IA
Identifiez-vous pour afficher ou ajouter un commentaire
-
🕰️ L'Horloge de Sécurité de l'IA : le compte à rebours est lancé ! 🤖 L'IMD de Lausanne a récemment dévoilé un concept innovant : l'AI Safety Clock. Cette horloge symbolique mesure le temps qu'il nous reste avant que l'intelligence artificielle générale (IAG) ne puisse échapper à notre contrôle humain. Un peu comme l'Horloge de l'Apocalypse ⚛️, mais ici, le danger ne vient pas des armes nucléaires, mais d'une IA capable de s'auto-améliorer au point de dépasser notre compréhension et notre contrôle. Depuis deux ans, les progrès fulgurants de l'IA avec des systèmes comme ChatGPT, AlphaGob et d'autres modèles d'apprentissage profond ont suscité des inquiétudes. L'accélération technologique est telle que nous devons agir maintenant pour instaurer des mécanismes de sécurité et une gouvernance éthique. L'AI Safety Clock nous rappelle que l'enjeu est existentiel 🌍. Il est temps pour les politiques, les entreprises technologiques et les régulateurs de collaborer pour assurer un développement responsable de l'IA. 🚨https://lnkd.in/e2ADFVza 🗣️ Et vous, que pensez-vous de cette initiative ? Sommes-nous prêts à relever ce défi ? Partagez vos réflexions en commentaires ! 👇 #AISafetyClock #IMDLausanne #IntelligenceArtificielle #Ethique #FuturDeLIA
Identifiez-vous pour afficher ou ajouter un commentaire
-
𝙇'𝙞𝙣𝙩𝙚𝙡𝙡𝙞𝙜𝙚𝙣𝙘𝙚 𝙖𝙧𝙩𝙞𝙛𝙞𝙘𝙞𝙚𝙡𝙡𝙚 : 𝙪𝙣𝙚 𝙖𝙧𝙢𝙚 𝙖̀ 𝙙𝙤𝙪𝙗𝙡𝙚 𝙩𝙧𝙖𝙣𝙘𝙝𝙖𝙣𝙩. En dépit des volets positifs proposés par l'#IA et son atout supplémentaire offert à la scène internationale en général, néanmoins, l'usage de cette technologie émergente devrait être basé sur la prudence et la vigilance. 📍 En Algérie, le recours à l'utilisation de cette technologie fulgurante est arrivé à un chiffre assez bien, cependant, on a pas encore préparé un cadre réglementaire qui déterminera ses limites, afin d'extraire ses atouts et d'atténuer ses défauts. 📌Le rapport annuel élaboré par #SUMSUB et publié par 𝙎𝙏𝘼𝙏𝙄𝙎𝙏𝘼, sur les tentatives de fraude à l'identité liées aux #DeepFakes (une technique révolutionnaire basée sur l'IA), nous montre une explosion entre 2022 et 2023 dans de nombreux pays du globe. l'Algérie était présente, représentée par une augmentation estimée à 1000%, présenté ci-dessous, cela c'était juste un petit signe, toutefois, il m'a confirmé qu'on a besoin d'une réglementation dédiée aux nouvelles technologies, dans le but de construire d'un coussin de sécurité face aux effets néfastes causés par les #Technologies de #Pointe. #𝙇'#𝙄𝙣𝙩𝙚𝙡𝙡𝙞𝙜𝙚𝙣𝙘𝙚 #𝘼𝙧𝙩𝙞𝙛𝙞𝙘𝙞𝙚𝙡𝙡𝙚 #𝔸𝕝𝕘𝕖𝕣𝕚𝕒 #SUMSUB #DeepFakes
Identifiez-vous pour afficher ou ajouter un commentaire
-
LIVE #FEB2024 L'IA SOUS INFLUENCES : QUAND L'IA PEUT DEVENIR UNE ARME !: L’intelligence artificielle est une épée à double tranchant, capable de nous offrir des avancées spectaculaires tout en cachant des dangers insidieux. Les systèmes d’I.A., alimentés par d’énormes quantités de données, peuvent perpétuer des préjugés, automatiser la discrimination et rendre les décisions opaques. Ils peuvent être utilisés pour manipuler l’opinion publique, espionner la vie privée et même menacer la sécurité nationale. Les discussions sur les dangers de l’I.A. ne sont pas de simples scenarii de science-fiction, mais des préoccupations bien réelles qui nécessitent une réflexion éthique profonde et des réglementations appropriées.
www.linkedin.com
Identifiez-vous pour afficher ou ajouter un commentaire
-
🔍 Focus sur l'#AIAct : pour une IA éthique et responsable L'#AI Act vise à aligner le développement de l’IA sur les valeurs européennes. Son ambition : garantir le respect des droits et libertés fondamentaux tout en assurant une utilisation sécurisée de l'#IA dans des secteurs essentiels comme la santé et la sécurité des citoyens. 📽 Entrez au cœur du sujet avec ma collègue Isabelle Budor, Directrice associée en charge des sujets d'IA de confiance chez Capgemini Invent. Je vous invite à téléchargez le guide '𝗔𝗜 𝗔𝗰𝘁 : 𝗟𝗲 𝘁𝗲𝗺𝗽𝘀 𝗱𝗲 𝗹’𝗮𝗰𝘁𝗶𝗼𝗻', pour en savoir plus 👉 https://bit.ly/4dpwQDV #CapgeminiFrance #IntelligenceArtificielle #DigitalTrust
Identifiez-vous pour afficher ou ajouter un commentaire
-
Responsable de Projet dans le domaine Spatial ♠️ Engagement Manager ♠️ Référent Sustainable IT Toulouse ♠️ Capgemini
🔍 Focus sur l'#AIAct : pour une IA éthique et responsable L'#AI Act vise à aligner le développement de l’IA sur les valeurs européennes. Son ambition : garantir le respect des droits et libertés fondamentaux tout en assurant une utilisation sécurisée de l'#IA dans des secteurs essentiels comme la santé et la sécurité des citoyens. 📽 Entrez au cœur du sujet avec ma collègue Isabelle Budor, Directrice associée en charge des sujets d'IA de confiance chez Capgemini Invent. Je vous invite à téléchargez le guide '𝗔𝗜 𝗔𝗰𝘁 : 𝗟𝗲 𝘁𝗲𝗺𝗽𝘀 𝗱𝗲 𝗹’𝗮𝗰𝘁𝗶𝗼𝗻', pour en savoir plus 👉 https://bit.ly/4dpwQDV #CapgeminiFrance #IntelligenceArtificielle #DigitalTrust
Identifiez-vous pour afficher ou ajouter un commentaire
-
Doctor of Laws | Associate Professor | AI Ethics & Tech Policies | Cybersecurity & Trust | | Scientific & Ethics Expert European Commission | Horizon Europe | ECCC
📢 Lancement Copilote IA Act – Règlement européen intelligence artificielle - avec Influence Cyber - France (www.influence-cyber.fr) 🏎 Naviguer dans le paysage complexe de la conformité au règlement européen sur l'intelligence artificielle, c'est un peu comme être la copilote chevronnée d'un rallye exigeant. L'experte en droit de l'Union européenne endosse le rôle de copilote intrépide, guidant son bénéficiaire à travers les virages serrés et les lignes droites sinueuses de la législation. ⚖ Coéquipière aguerrie, elle décortique les spécificités du règlement, tel un roadbook précis, mettant en lumière chaque virage réglementaire, chaque accélération normative. Elle ne se contente pas d'indiquer la direction, mais offre une vision éclairée sur les risques et les opportunités qui jalonnent le parcours. 💪 Telle la copilote ajustant constamment la trajectoire pour maximiser la vitesse sans perdre le contrôle, l'experte en droit de l'Union européenne adapte les stratégies de conformité en fonction des évolutions du règlement et des innovations technologiques. Elle veille à ce que le véhicule de l'entreprise suive la bonne voie, évitant les écueils juridiques et les sanctions potentielles. 🏆 Dans ce rallye de la conformité, la coopération entre le conducteur/bénéficiaire et la copilote/experte en droit de l'Union européenne est cruciale. La confiance mutuelle est le carburant qui propulse le duo à travers les défis, les dépassements et les ralentissements réglementaires. Cette collaboration vous permettra de franchir la ligne d'arrivée en toute sécurité, avec une conformité totale au règlement européen sur l'intelligence artificielle. Oui, j'ai décortiqué le texte qui circule depuis 8 jours. Et re-oui, c'est bien moi dans la voiture ci-dessous 😉
Identifiez-vous pour afficher ou ajouter un commentaire
-
“L’arrivée prochaine de l’AI Act Européen va réglementer le développement et l’usage des IA tout en permettant de n’avoir aucune contrainte à l’innovation” a déclaré Thierry Breton, commissaire européen pour le marché intérieur lors du Forum InCyber Europe (FIC) fin mars. A l’issue des travaux législatifs, les institutions européennes ont convergé sur une classification des systèmes d’IA en fonction de leur niveau de risque (minimes, limités, élevés et inacceptables). “Cette réglementation européenne est basée sur les risques en matière d’usages et de services”. Le Parlement a ainsi souhaité réguler les LLM, les modèles fondations et non pas la technologie. “Ce texte sera extrêmement utile pour toutes les start-up européennes et les entreprises qui viendront en Europe pour développer et entraîner des modèles”. “La cybersécurité doit être au service de l’IA. L’IA doit être au service de la cybersécurité”, a martelé le Général d’armée (2S) marc watin augouard, fondateur du Forum. “L’IA est à la fois alliée et ennemie”, note de son côté Guillaume Tissier, directeur du Forum InCyber, soulignant la nécessité pour les deux communautés de davantage travailler ensemble. #IA #cyber #FIC #ForumInCyber #Europe #AIAct #startup #LLM #ReadyforAI Makéda Pecastaing Charles Citroën Alexa Charles Mélodie REYNAUD Vincent Riou
Identifiez-vous pour afficher ou ajouter un commentaire
-
LIVE #FEB2024 SUIS-JE LE GARDIEN DE L'IA ?: La responsabilité de l’intelligence artificielle est une question cruciale qui transcende les frontières technologiques et juridiques. Alors que l’IA continue de s’intégrer dans nos vies, de la conduite autonome à la prise de décisions médicales, nous devons nous interroger sur qui sera tenu pour responsable lorsque des erreurs se produiront. Qui, du développeur, de l’entreprise, du régulateur ou de l’utilisateur, se tiendra dans le box des accusés ? Transparence des algorithmes, traçabilité des décisions prises par l’IA, établissement de normes éthiques qui guideront le développement et l’utilisation de ces systèmes… Le chantier est immense pour garantir la confiance du public envers ces nouvelles technologies.
www.linkedin.com
Identifiez-vous pour afficher ou ajouter un commentaire
Publié par le même auteur
-
Générative, Prédictive ou Extractive... quelle IA pour quel usage ?
Dominique Mangiatordi 6 mois -
L'Empowerment par l'IA : Comment chaque collaborateur façonne son équipe intelligente
Dominique Mangiatordi 1 ans -
From Identification to Avatarization: create a first moment of motivation
Dominique Mangiatordi 2 ans