Vasily Pozdyshev’s Post

View profile for Vasily Pozdyshev, graphic

Central Banker II Bank for International Settlements II Financial Stability Institute II Basel Committee on Banking Supervision

Very good read. However, not convinced by the idea of "National" AI Authority. That may lead to a kind of "AI fragmentation" in the world, and I would see that as a serious risk itself : the "AIs used in different countries / regions will be more and more diverging the ones from the others. Some may also become "lunatics" (as being "nourished" in accordance with the "national" rules and "diets"). If such authority is set, it should be global, or (at least) at the EU level. And there are also alternatives to explore : Data - protection authorities could have their mandates enlarged with the AI - related regulation. Sectoral AI regulation also makes sense, that could be done just by adding the "AI regulation" mandate to the relevant authorities.

View organization page for Institut Montaigne, graphic

39,893 followers

🚨💥 L’année 2023 a été marquée par la déferlante IA. Cette accélération technologique a conduit plusieurs pays à se positionner sur la création de leurs propres Instituts d’évaluation de l’IA pour mieux appréhender les risques. Alors que la France  accueillera prochainement la seconde édition du Sommet Mondial de l’IA, elle manque pourtant à l’appel.   🧐 Comment rattraper ce retard et limiter les risques de l’IA tout en favorisant son développement ?   Dans la continuité de la séquence  #MontaigneTech 🤖, l’Institut Montaigne propose une feuille de route opérationnelle dans une nouvelle note d’action “Pour une Autorité française de l’IA”, portée par notre expert Milo Rignell. L’urgence est désormais de disposer rapidement d’un acteur de référence, capable d’accompagner l’évaluation et la gestion des risques IA et à terme, la mise en conformité des entreprises avec le règlement européen. 💡 Ainsi, l’Institut Montaigne recommande la mise en place d’une Autorité de l’IA qui s’appuie sur un savoir-faire français reconnu en matière de sûreté de l’IA. Conscients des étapes et contraintes réglementaires à l’établissement d’un tel acteur de référence, nous proposons un plan d’action en 2 temps :   1️⃣ La création immédiate d’un Centre d’évaluation de l’IA, avec trois missions clés :  Évaluer les grands modèles d’IA de fondation à l’état de l’art. Coordonner une stratégie française de normalisation de l’IA au niveau européen et international. Mettre en place des outils et un programme d’accompagnement des entreprises de l’IA, pour faciliter leur mise en conformité avec l’AI Act. 2️⃣ Une fois que le règlement européen aura été adopté, ce Centre d’évaluation pourra évoluer en une Autorité de l’IA à laquelle s’ajoutera une quatrième mission :  Un rôle de régulateur, supervisant les systèmes d’IA à usage général et en aidant les régulateurs sectoriels à superviser les systèmes d’IA à usage spécifique.   Retrouvez la note dans son intégralité ici. 👉 https://bit.ly/49iwbC1 

To view or add a comment, sign in

Explore topics