Bewältigung der Herausforderungen bei der Operationalisierung des EU AI Acts
Die Einhaltung des AI Acts ermöglicht es Unternehmen, vertrauenswürdigere KI-Produkte und -Dienstleistungen zu entwickeln. Allerdings stehen viele Unternehmen bei der Umsetzung vor einigen Herausforderungen. appliedAI und seine Partner haben drei zentrale Herausforderungen identifiziert:
- Mangel an umsetzbaren Leitlinien: Unternehmen fehlt es an klaren Vorgaben, wie sie den AI Act in der Praxis umsetzen können – insbesondere, wie sich die Aufgaben am besten unternehmensweit koordinieren lassen.
- Laufende Veröffentlichung harmonisierter Standards: Dies hält viele Unternehmen davon ab, Hochrisiko-KI-Systeme zu erkunden, und erschwert es technischen und rechtlichen Fachkräften, ein gemeinsames Verständnis von Compliance zu entwickeln.
- Unklarheit über Rollen und Kompetenzen: Unternehmen sind unsicher, welche Kompetenzprofile erforderlich sind und welche ersten Schritte sie bereits jetzt unternehmen können, um den AI Act praktisch umzusetzen.
Um die gesamte KI-Community dabei zu unterstützen, den Schritt von der Theorie zur Praxis zu gehen, haben appliedAI und seine Partner dieses praxisorientierte Whitepaper veröffentlicht, das Best Practices und Erkenntnisse zur Umsetzung der Anforderungen für Hochrisiko-KI-Systeme teilt.
In diesem Whitepaper stellen wir das AI Act Governance Pyramid Framework vor – einen strukturierten Ansatz zur Operationalisierung des AI Acts, der die Zusammenarbeit aller Stakeholder über sämtliche Unternehmensebenen hinweg koordiniert. Anschließend fassen wir technische und Governance-bezogene Best Practices zur Umsetzung der Anforderungen für Hochrisiko-KI-Systeme aus der Perspektive von Praktikern zusammen und verweisen dabei auf relevante internationale Standards. Abschließend haben wir das ML Skill Profiles Framework von appliedAI unter Berücksichtigung des EU AI Acts aktualisiert und einen Leitfaden entwickelt, der aufzeigt, welche Schritte Unternehmen bereits heute ergreifen können, um sich auf die praktische Umsetzung des AI Acts vorzubereiten.
Der Bericht ist das Ergebnis der appliedAI-Arbeitsgruppen. Er basiert auf den Erfahrungen führender Expertinnen und Experten aus den Partnerunternehmen von appliedAI.
Whitepaper herunterladen
Autoren des Whitepapers:
- Alexander Machado, Head of Trustworthy AI CoE and former Head of MLOps Processes
- Manuel Jiménez Mérida, Senior AI Governance Strategist and Trustworthy AI Expert
- Akhil Deo, Senior AI regulatory expert
- Anish Pathak, ML Engineer
Wir danken Ihnen für Ihre Beiträge:
- Simone Oldekop, Former Head of Responsible AI Office
Carl Zeiss AG - Dirk Wacker, AI Lead Giesecke+Devrient GmbH
- Steffen Herterich, Lead Principal Engineer - Data Protection and Privacy Infineon Technologies AG
- Geoffroy Pavillet, Data Protection Counsel Linde GmbH
- Cecilia Carbonelli, Senior Principal - Head of Algorithm Concept & Modeling - Responsible AI Tech Lead Infineon Technologies AG
- Christiane Miethge, Senior Manager AI Communication and Policy Infineon Technologies AG
- Eljalill Tauschinsky, Consultant data protection and data law EnBW Energie Baden-Württemberg AG
- Heinrich Dold, Senior Transformation Manager EnBW Energie Baden-Württemberg AG
- Alexandra Wander, Program Manager - Responsible AI Carl Zeiss AG
- Simone Heitzer, AI Strategist MTU Aero Engines AG
- Asad Preuss-Dodhy, Sr. Principal - Data Anonymisation and Privacy Technologies Expert Roche Diagnostics GmbH (Information Solutions)
- Sona Jose, Responsible AI Consultant Carl Zeiss AG
- Araceli Alcala, RA Manager | RA SME for AI Carl Zeiss Meditec AG
- Philippe Coution, Head of Digital Interaction & Lead AI Quality TÜV SÜD AG
- Sebastian Hallensleben, Chair of Joint Technical Committee (JTC) 21, AI CEN and CENELEC

