🚀 𝗞𝗼𝗺𝗺 𝘇𝘂 𝘂𝗻𝘀 𝗮𝗻 𝗕𝗼𝗿𝗱 𝘂𝗻𝗱 𝗴𝗲𝘀𝘁𝗮𝗹𝘁𝗲 𝗱𝗶𝗲 𝗭𝘂𝗸𝘂𝗻𝗳𝘁 𝗱𝗲𝗿 𝘃𝗲𝗿𝘁𝗿𝗮𝘂𝗲𝗻𝘀𝘄ü𝗿𝗱𝗶𝗴𝗲𝗻 𝗞𝗜 𝗺𝗶𝘁! 🚀 Wir im TÜV AI.Lab suchen Dich als ✨ (𝗝𝘂𝗻𝗶𝗼𝗿) 𝗔𝗜 𝗤𝘂𝗮𝗹𝗶𝘁𝘆 𝗠𝗮𝗻𝗮𝗴𝗲𝗿 (𝗺/𝘄/𝗱) ✨ Werde Teil unseres dynamischen Teams und arbeite an den KI-Qualität von morgen – für vertrauenswürdige und sichere #KünstlicheIntelligenz. Deine Aufgaben: ⭐ Entwicklung von Konformitätskriterien in nicht-technischen Bereichen (z.B. Datenschutz, Urheberrecht und Grundrechte) und Mitarbeit an der Schnittstelle des #AIAct mit sektoralen Regulierungen ⭐ Mitgestaltung von Prüfverfahren für KI-Systeme, insbesondere Hochrisiko-Anwendungen ⭐ Mitarbeit an Normen, Standards und regulatorischen Grundlagen für KI-Prüfverfahren ⭐ Wissensmanagement und Weiterentwicklung im dynamischen KI-Bereich Das bringst Du mit: 💡 Abgeschlossenes Hochschulstudium (z. B. Rechtswissenschaften oder IT/Technik mit relevanten geistes- oder rechtswissenschaftlichen Anteilen) 💡 Solides Wissen und großes Interesse an Themen rund um Künstliche Intelligenz 💡 Starke analytische Fähigkeiten, Teamgeist und systematisches Denken 💡 Exzellente Deutsch- und Englischkenntnisse (C1-Niveau) Das bieten wir Dir: 💎 Dynamisches Arbeitsumfeld an der Speerspitze aktueller gesellschaftlicher Diskussionen rund um KI 💎 Flexible Arbeitsbedingungen (100 % Remote mit monatlichen Treffen zu unseren Team Days oder in unserem Office am Merantix AI Campus in Berlin) 💎 Team-Spirit, kreative Freiheiten und Gestaltungsspielraum 💎 Wettbewerbsfähige Vergütung und State-of-the-art Ausstattung 💎 Die Chance, das KI-Ökosystem in Deutschland und Europa aktiv mitzugestalten Werde Teil eines einzigartigen Teams und bring Deine Ideen ein, um KI vertrauenswürdig und sicher zu machen! 👉 Bewirb Dich jetzt und hilf uns, die Zukunft zu gestalten. Den Link findest Du in den Kommentaren. #TÜVAILab #TrustworthyAI #KIQualität #AIJobs #BerlinJobs #RemoteJobs
TÜV AI.Lab
Denkfabrik
Berlin, BE 2.447 Follower:innen
Translating the principles of assessing and certifying AI into practice
Info
Currently, the regulatory basis for safe and trustworthy AI is being established worldwide. The AI Lab will accompany the implementation of these regulatory requirements into practice and support TÜV companies in the development of innovative AI applications in safety-critical areas. These include AI systems with a high risk, for example in vehicles, in medicine or in robotics. In the TÜV AI.Lab, AI experts work on developing concrete test scenarios and methods, participate in the creation of new norms and standards, as well as on sector-specific use cases. The AI.Lab is working hard on making the AI ecosystem ready for regulatory and societal requirements and making safe and sustainable AI become Europe’s USP.
- Website
-
https://www.tuev-lab.ai
Externer Link zu TÜV AI.Lab
- Branche
- Denkfabrik
- Größe
- 11–50 Beschäftigte
- Hauptsitz
- Berlin, BE
- Art
- Privatunternehmen
- Gegründet
- 2023
- Spezialgebiete
- Trustworthy AI, AI-Quality, AI-Certification, EU AI Act, KI-Verordnung, KI-Prüfkriterien und KI-Prüfverfahren
Orte
-
Primär
Max-Urich Straße 3
Berlin, BE 13355, DE
Beschäftigte von TÜV AI.Lab
Updates
-
TÜV AI.Lab hat dies direkt geteilt
📢 Germany, get ready for 𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐀𝐈 𝐢𝐧 𝐀𝐜𝐭𝐢𝐨𝐧! 🚀 We're initiating a new event series dedicated to scaling responsible AI adoption through interactive workshops and discussions led by curated SMEs! Our first stops are scheduled for: 📍 Berlin: March 6, 2025 | Google Office 📍 Frankfurt: March 11, 2025 | Taylor Wessing Office The speaker lineup is taking shape! And we're excited to unveil the initial lineup of incredible speakers joining us are from: TÜV AI.Lab, Hewlett Packard Enterprise, The Adecco Group, BioNTech SE, Google, Deloitte, and of course, QuantPi! Learn, exchange and get equipped with practical insights, frameworks and tools to successfully steer your AI initiatives. Space is limited, so if you want to secure your place, be sure to request an invite ASAP: https://lnkd.in/gfZ8fKtc #RAIinAction25 #AIgovernance #ResponsibleAI #AITesting #TrustinAI
-
𝗥𝗲𝗴𝘂𝗹𝗮𝘁𝗼𝗿𝘆 𝗦𝗮𝗻𝗱𝗯𝗼𝘅𝗲𝘀: 𝗖𝗼𝗻𝘁𝗿𝗶𝗯𝘂𝘁𝗶𝗻𝗴 𝗼𝘂𝗿 𝗲𝘅𝗽𝗲𝗿𝘁𝗶𝘀𝗲 𝘁𝗼 #𝗘𝗨𝗦𝗔𝗜𝗥! We’re thrilled to be part of EUSAiR, a European Commission-funded initiative supporting Regulatory Sandboxes for #AI at EU-level. These controlled environments help AI innovators – especially #SMEs and #Startups – test and refine their solutions before market entry, reducing compliance costs and ensuring a smoother, sustainable launch. We kicked off the two-year journey on January 23-24 in Bologna. 🚀🔬 𝗥𝗲𝗴𝘂𝗹𝗮𝘁𝗼𝗿𝘆 𝗦𝗮𝗻𝗱-𝘄𝗵𝗮𝘁? 🤔 𝗟𝗲𝘁’𝘀 𝗿𝗲𝗰𝗮𝗽: Regulatory sandboxes aim to be a game-changer for aligning AI regulations across Europe. They create a structured yet flexible space where AI can flourish without compromising trust, compliance, or ethics. 𝗛𝗼𝘄 𝗱𝗼𝗲𝘀 𝗘𝗨𝗦𝗔𝗜𝗥 𝗰𝗼𝗻𝘁𝗿𝗶𝗯𝘂𝘁𝗲? 📜 Establishes standardized regulatory frameworks. 🏛 Strengthens technical and legal capacities. 🤝 Fosters collaboration between regulators, academia, and industry 🔄 Drives evidence-based learning and best practices in AI governance 𝗪𝗲 𝗮𝗿𝗲 𝗶𝗻 𝘁𝗵𝗶𝘀 𝘁𝗼𝗴𝗲𝘁𝗵𝗲𝗿! The EUSAiR consortium unites leading research institutions and industry pioneers: CINECA, ICSC - Centro Nazionale di Ricerca in HPC, Big Data e Quantum Computing, University of Bologna (Alma Mater Studiorum – Università di Bologna), Turun yliopisto - University of Turku, Agenzia per la Cybersicurezza Nazionale, Università degli Studi di Firenze, Haaga-Helia University of Applied Sciences, CSC - IT Center for Science, ALLAI, GLOBAZ SA, Barcelona Supercomputing Center, European DIGITAL SME Alliance, LOBA and us, the TÜV AI.Lab. TÜV AI.Lab is proud to be part of this initiative, bringing our expertise in AI assessment to the table. For us, it’s more than compliance—it’s about building a trusted AI future in Europe. 🌍✨ #TÜVAILab #TrustworthyAI #AIQuality #RegulatorySandboxes #AIAct
-
🚀 𝗛𝗼𝘄 𝗰𝗮𝗻 𝘄𝗲 𝗺𝗮𝗸𝗲 #𝗔𝗜𝗖𝗲𝗿𝘁𝗶𝗳𝗶𝗰𝗮𝘁𝗶𝗼𝗻 𝗮𝗴𝗶𝗹𝗲 𝘁𝗼 𝗳𝗮𝘀𝘁-𝘁𝗿𝗮𝗰𝗸 𝗶𝗻𝗻𝗼𝘃𝗮𝘁𝗶𝗼𝗻 𝗶𝗻 𝗘𝘂𝗿𝗼𝗽𝗲? “#𝗔𝗜 challenges us to develop agile certification processes — an agile implementation pathway can help accelerate AI innovation in Europe”, says Alexander von Janowski, our AI Certification Manager. At the 13th Annual Conference Outsourcing Medical Trials, Alexander shared his insights into the #𝗔𝗴𝗶𝗹𝗲𝗖𝗲𝗿𝘁𝗶𝗳𝗶𝗰𝗮𝘁𝗶𝗼𝗻 process TÜV AI.Lab developed as part of the European research project TEF-Health. Alexander discussed with Pradipto Kolay (Philips) and Piet Smet (QbD Group): ✅ How agile certification speeds up time-to-market for AI innovations ✅ How the #𝗔𝗜𝗔𝗰𝘁 can be leveraged to drive innovation ✅ What #𝗛𝗲𝗮𝗹𝘁𝗵𝗧𝗲𝗰𝗵 manufacturers gain from implementing an agile process Thanks to Ralitsa Pashkuleva and the Arena International Events Group for organizing this insightful conference! #𝗧Ü𝗩𝗔𝗜𝗟𝗮𝗯 #𝗧𝗿𝘂𝘀𝘁𝘄𝗼𝗿𝘁𝗵𝘆𝗔𝗜 #𝗔𝗜𝗤𝘂𝗮𝗹𝗶𝘁𝘆 #𝗠𝗲𝗱𝗧𝗲𝗰𝗵 #𝗧𝗘𝗙𝗛𝗲𝗮𝗹𝘁𝗵
-
✨⚖️ 𝗘𝗨 𝗔𝗜 𝗔𝗰𝘁: 𝗗𝗮𝘀 𝗺ü𝘀𝘀𝗲𝗻 𝗨𝗻𝘁𝗲𝗿𝗻𝗲𝗵𝗺𝗲𝗻 𝗮𝗯 𝗙𝗲𝗯𝗿𝘂𝗮𝗿 𝗯𝗲𝗮𝗰𝗵𝘁𝗲𝗻! ⚖️✨ Ab Anfang Februar gelten zwei wichtigen Bestimmungen des EU #AIAct: 🚫 #VerboteneSysteme nach Art. 5 müssen vom Markt genommen werden: Sie dürfen nicht mehr betrieben und nicht mehr in Verkehr gebracht werden. 🧑🎓 #AILiteracy: Es gilt Art. 4 und damit: Anbieter und Betreiber aller Software-Systeme, die KI-Systeme gemäß AI Act (nach Art. 3 Abs. 1 KI-VO) sind, müssen „nach besten Kräften“ sicherstellen, dass Personal, das in ihrer Verantwortung mit KI-Systemen zu tun hat, über ein „ausreichendes Maß an KI-Kompetenz“ verfügt. Ganz so einfach wie in der untenstehenden, vereinfachenden Graphik ist es leider nicht: Der Teufel steckt wie immer im Detail. Diese Detailschärfe haben wir in unserem #AIActRiskNavigator, unserem kostenlosen und niedrigschwelligen Online-Tool zur Risikoklassifizierung von KI-Systemen und -modellen, voll berücksichtigt. Zu den verbotenen Systemen wird oftmals sehr pauschal gesagt, dass Systeme zur unterschwelligen Beeinflussung oder zum Social Scoring verboten sind. Tatsächlich ist die Sachlage im Detail aber komplexer: 💡 Unterschwellige Beeinflussung ist nur verboten, wenn dadurch ein „erheblicher Schaden“ entsteht (Art. 5 Abs. 1 lit. a), also „erhebliche[n] nachteilige[n] Auswirkungen auf die physische und psychische Gesundheit oder auf die finanziellen Interessen“ (ErwGr. 29 KI-VO). 💡 Beim Social Scoring sind die Systeme u.a. (nur) dann verboten, wenn im Ergebnis a) eine bzgl. des sozialen Verhaltens unverhältnismäßige oder ungerechtfertigte Schlechterstellung oder Benachteiligung entsteht und/oder b) eine Schlechterstellung/Benachteiligung in einem bestimmten sozialen Zusammenhang entsteht und diese Bewertung auf Daten beruht, die aus einem anderen und unverbundenen Zusammenhang stammen (vgl. Art. 5 Abs. 1 lit. c) 💡 In unserem 𝗔𝗜 𝗔𝗰𝘁 𝗥𝗶𝘀𝗸 𝗡𝗮𝘃𝗶𝗴𝗮𝘁𝗼𝗿 sind alle diese Details implementiert. Er hilft also, … ✅ ganz genau im Detail nachzuvollziehen, ob ein KI-System verboten ist ✅ nachzuprüfen, ob das vorliegende System überhaupt ein KI-System gemäß AI Act ist und ✅ in welche Risikoklasse das KI-System fällt. Diese Auswertung lässt sich auch als Pdf generieren. Unser Wunsch für mehr Zuverlässigkeit und Klarheit: 🙏 Wir benötigen weitere juristische Präzisierungen, z.B. wann genau ein Schaden „erheblich“ ist. 👁️ Augen auf: Leider gibt es im Zusammenhang mit der KI-Kompetenz gemäß Artikel 4 gerade einige unseriöse Anbieter auf dem Markt. 🙏 Weitere Guidelines und Präzisierungen insbes. zu den KI-Systemen könnten klären, wer sich um Art. 4 kümmern soll. Nur so können wir gemeinsam die Klarheit, Transparenz und Zuverlässigkeit schaffen, die Unternehmen für ihre #AICompliance brauchen! #TÜVAILab #TrustworthyAI #AIQuality #AICertification #TÜVRiskNavigator
-
TÜV AI.Lab hat dies direkt geteilt
🌟 What an incredible session on AI safety and compliance we hosted at the AI House during WEF 2025! The session featured Prof. Yoshua Bengio, one of the world’s foremost AI experts, alongside thought leaders from KPMG, SAP, Julius Baer, SIX Group, TÜV AI.Lab, MLCommons, ETH Zürich, University of California, Berkeley, INSAIT - Institute for Computer Science, Artificial Intelligence and Technology, and PRISM Eval. Together, they explored some of the most pressing challenges in AI safety and compliance. Key topics included: ✅ Implementing internal AI controls to ensure safety, reliability, and performance. ✅ Establishing effective AI governance frameworks to meet regulatory requirements. ✅ Translating regulations like the EU AI Act into actionable technical controls. 🎥 The session recording is now available! Don’t miss this opportunity to learn from top experts shaping the future of safe and compliant AI. 👉 Watch the recording here: https://lnkd.in/dmc65u2y #AIHouseDavos #WEF2025 #LatticeFlowAI #AISafety #AICompliance #AIGovernance
-
TÜV AI.Lab hat dies direkt geteilt
𝐃𝐚 𝐝𝐫𝐨𝐡𝐭 𝐦𝐚𝐧 𝐞𝐢𝐧𝐦𝐚𝐥 𝐚𝐮𝐟 𝐋𝐢𝐧𝐤𝐞𝐝𝐈𝐧 𝐦𝐢𝐭 𝐊𝐨𝐧𝐬𝐞𝐪𝐮𝐞𝐧𝐳𝐞𝐧... ...schon darf ich meinen Standpunkt im Tagesspiegel Background zum Besten geben 😉. Spaß beiseite: Vor einigen Monaten habe ich hier ein Gedankenspiel geteilt. Dabei ging es um die Frage, wie weit wir mit der KI-Transformation wären - ohne Vorgaben wie den #EU #AIAct. Schließlich fällt bei Diskussionen um #AppliedAI schnell das Wort Überregulierung. Aber bremst allein die Gesetzgebung den Wandel ein? Ich finde: Nein! Vielmehr müssen wir die Balance zwischen notwendigem Bürokratieabbau und zielgerichteter Regulierung finden. ⚖ Wie genau das aussehen kann, wann der Act sogar zum Innovationstreiber wird und welche Rolle ein Dampfkessel dabei spielt? 🤔 Das verrate ich in meinem Standpunkt . Danke an Lisa Oder, dass ich meine Gedanken teilen durfte. Den Link zum Text findet ihr im ersten Kommentar. 👇🏻
-
TÜV AI.Lab hat dies direkt geteilt
📣 Very proud to announce the kick-off of #EUSAiR, a European flagship project to guide the establishment of Regulatory Sandboxes for Artificial Intelligence in EU countries. Supported by the European Commission, #EUSAiR will develop standardized frameworks for #AIRegulatorySandboxes (led by ALLAI), strengthening #technical and #legal capacities, and fostering #cooperation among European Union Member States and their National Competent Authorities. ALLAI is honored to be part of an excellent consortium with: 🔹 University of Bologna (Alma Mater Studiorum – Università di Bologna), Università degli Studi di Firenze, Turku University of Applied Sciences, Haaga-Helia University of Applied Sciences 🔹 National competent authorities through the Agenzia per la Cybersicurezza Nazionale 🔹 The world’s leading supercomputing centers Barcelona Supercomputing Center, CINECA and CSC 🔹 European DIGITAL SME Alliance, TÜV AI.Lab and LOBA Bridging innovation and compliance #EUSAiR will work closely with National Competent Authorities, public and private actors, including #SMEs and #startups, fundamental rights protection agencies and relevant players and stakeholders within the AI ecosystem to co-develop a framework that represents all needs. ⚡ Press release: https://lnkd.in/ebDJWwpX Antonino Rotolo Luca Nicoletti Salvador Capella Gutierrez Erik Longo Filippo Bagni Fabio Seferi Marta Villegas Laura Morselli Altti Lagstedt Alfonso Valencia Filip Agatić Justina Bieliauskaite Imane Hmiddou Alice Teilhard De Chardin #airegulatorysandboxes #ResponsibleAI #SMEs #StartUps #EuropeanCommission #EU #AIAct #AIOffice
-
🏔️ 𝗜𝗻𝘀𝗶𝗴𝗵𝘁𝘀 𝗳𝗿𝗼𝗺 #Davos: 𝗛𝗼𝘄 𝗱𝗼 𝘄𝗲 𝗴𝗲𝘁 𝗔𝗜 𝗿𝗲𝗴𝘂𝗹𝗮𝘁𝗶𝗼𝗻 𝗿𝗶𝗴𝗵𝘁? 𝗔𝗻𝗱 𝘄𝗵𝗼 𝗱𝗼𝗲𝘀?🏔️ “Goals and approach of the AI Act are spot on. But the way we implement and goldplate regulation in Europe and especially Germany are a problem. We would not have a single AI champion more in Europe, would we not have passed the law. The problems of lacking innovation and globally successful tech companies lie elsewhere”, said TÜV AI.Lab CEO Franziska Weindauer at the panel “𝗔𝗜 𝗥𝗲𝗴𝘂𝗹𝗮𝘁𝗶𝗼𝗻: 𝗣𝗼𝗹𝗶𝗰𝘆 𝗦𝗶𝗹𝗼𝘀 𝗠𝗲𝗲𝘁 𝗜𝗻𝘁𝗲𝗿𝗻𝗮𝘁𝗶𝗼𝗻𝗮𝗹 𝗖𝗼𝗼𝗽𝗲𝗿𝗮𝘁𝗶𝗼𝗻 – 𝗦𝘁𝗿𝗮𝘁𝗲𝗴𝗶𝗰 𝗣𝗿𝗶𝗼𝗿𝗶𝘁𝗶𝗲𝘀 𝗳𝗼𝗿 𝟮𝟬𝟮𝟱” at AI House Davos. Franziska discussed together with Dr. Bilel Jamoussi - AI for Good, Irene Solaiman - Hugging Face and Vanessa Wilfred - IMDA, moderated by Kenneth Cukier – The Economist on the evolving landscape of #AIregulation in 2025. ⚖️ 🌐✨ The panelists shared views and insights on global regulatory approaches, international cooperation and shared standards e.g. for #Robustness and #BiasMitigation, while contributing diverse perspectives and their experiences under differing legal frameworks. 🎯 There is one common goal of these diverse perspectives: the broad and impactful adoption of AI technologies in societies and for the people. Fotos: © Jakob Nawka #TÜVAILab #AIHouseDavos #TrustworthyAI #AIQuality #AICertification #Davos2025
-
+2
-
Happy to join this high-calibre roundtable on #AIsafety and #AIregulation with our CEO Franziska Weindauer! Thank you for having us, INSAIT - Institute for Computer Science, Artificial Intelligence and Technology, ETH Zürich / ETH AI Center and LatticeFlow AI! #TÜVAILab #AIHouseDavos #Davos25
💡 Today is the day! As part of the World Economic Forum (WEF) 2025 in Davos, INSAIT is thrilled to organize a special event on one of the hottest themes today: AI safety and regulations (together with LatticeFlow AI and ETH Zürich). 🌍 We are honored to welcome Prof. Yoshua Bengio – a global leader in AI and recipient of the 2018 “A.M. Turing Award” (often called the "Nobel Prize of Computing") to the discussions – he will be sharing his ground-breaking insights on AI safety. 🌟 Other participants in the event are: Prof. Dawn Song (University of California, Berkeley), Prof. Martin Vechev (ETH Zürich, founder and scientific director of INSAIT), Dr. Sean Kask, Chief AI Strategy Officer at SAP, Dr. Peter Mattson, Founder and President at MLCommons, Dr. Petar Tsankov, CEO and Co-Founder, LatticeFlow AI, Dr. Matthias Bossardt, Partner and Head of Cyber & Digital Risk Consulting at KPMG, Konstantin Rubinov, Head of CRO Strategic Data and Architecture, Julius Baer, Franziska Weindauer, CEO at TÜV AI.Lab. Moderator of the discussion is Prof. Andreas Krause, ETH Zürich, Director ETH AI Center. #AIHouseDavos #INSAIT #EUAIAct #ResponsibleAI #AICompliance #WEF2025