Vertrauenswürdige KI - Setzen Sie die Anforderungen des EU AI Acts mit appliedAI um

Setzen Sie die Anforderungen des EU AI Acts mit appliedAI um

Der AI Act stellt eine Herausforderung für Unternehmen dar

Der EU AI Act verlangt von den Unternehmen, dass sie sich mit der Governance Ihrer KI-Anwendungen beschäftigen, um die gesetzlichen Vorschriften sowohl auf organisatorischer als auch auf anwendungsbezogener Ebene zu erfüllen. Eine große Herausforderung für Anwender besteht darin, dass die erforderlichen Tools und Standards noch entwickelt werden und noch nicht verfügbar sind, was es für Unternehmen schwierig macht, sich vorzubereiten.

Unternehmen müssen nun Antworten auf zahlreiche Fragen finden:

  • Welche unserer Anwendungsfälle fallen in die Hochrisikokategorie und wie können wir unsere KI-Anwendungsfälle konform machen?
  • Wie kann sichergestellt werden, dass das Unternehmen die Compliance auf organisatorischer Ebene so schnell und kosteneffizient wie möglich erreicht, und wie lässt sich diese aufrechterhalten?
  • Wie kann ich meine KI-Experten und -Anwender mit den neuen Anforderungen vertraut machen?
  • Wie kann ich meine KI-Experten und Mitarbeiter mit den neuen Anforderungen vertraut machen?
  • Wie gehe ich mit den Anforderungen des AI Acts um bzw. wie übertrage ich sie auf andere Vorschriften in der ganzen Welt?

Einhaltung des AI Acts mit appliedAI

appliedAI hilft Ihnen dabei, sich auf die Einhaltung der Vorschriften vorzubereiten. appliedAI arbeitet seit der ersten Version des AI Acts im Jahr 2021 mit seinen Partnerunternehmen an der Operationalisierung der KI-Regulierung und wird von politischen Entscheidungsträgern und Organisationen durch seine Beiträge als Vordenker angesehen. Es ist daher nur folgerichtig, dass Mitarbeiter von appliedAI Aufgaben in der "Global Partnership on AI" sowie in der OECD übernommen haben.

Durch Partnerschaften mit über 20 Organisationen schaffen wir die Voraussetzungen für eine reibungslose KI-Integration. Als strategische Berater deutscher Ministerien setzen wir uns für eine verständliche KI ein. Beteiligen Sie sich an globalen Initiativen wie OECD, GPAI, IEEE, ETAMI und weiteren Arbeitsgruppen, die sich für die Förderung vertrauenswürdiger KI-Praktiken weltweit und innerhalb des Partnernetzwerks einsetzen.

appliedAI unterstützt Sie dabei, Ihre Anforderungen ganzheitlich und nachhaltig zu erfüllen

Weitere Informationen zu den konkreten Angeboten folgen in Kürze.

Checkliste für die ersten Schritte: Der Umgang mit dem AI Act

  1. Grundlegendes Verständnis für den AI Act schaffen
  2. Bewertung des Portfolios Ihrer KI-Anwendungsfälle in Bezug auf die Risikokategorien und Erstellung eines Plans für Fälle, die unter die Kategorien "hohes Risiko" oder "verboten" fallen
  3. Ermitteln Sie Ihre organisatorische und MLOps AI Act Bereitschaft durch die MLOps Bewertung
  4. Entscheiden Sie sich für ein maximales Risikoniveau pro Anwendungsfall-Cluster, das Sie in Ihrer Organisation zulassen
  5. Initiieren Sie ein grundlegendes Governance-Programm für die Einhaltung des AI Act
  6. Richten Sie einen MLOps-Prozess ein, um die meisten grundlegenden Anforderungen des AI Act zu erfüllen.

Unsere Teilnahme an globalen KI-Expertennetzwerken

Um eine kompetente Betreuung unserer Kunden zu gewährleisten, arbeiten appliedAI-Experten in und mit Institutionen wie

In Zusammenarbeit mit

Andreas Liebl

Dr. Andreas Liebl

Globale Partnerschaft für KI (GPAI)

Dr. Andreas Liebl, Geschäftsführer und Gründer von appliedAI, ist Teil der Expertengruppe für Innovation und Kommerzialisierung innerhalb der Global Partnership on AI (GPAI), einer globalen Initiative zur Förderung der verantwortungsvollen und menschenzentrierten Entwicklung und Nutzung von künstlicher Intelligenz.

Authors Till Klein Portrait low res

Dr. Till Klein

OECD-Arbeitsgruppe zur Steuerung künstlicher Intelligenz (AIGO)

Dr. Till Klein, Leiter des Bereichs vertrauenswürdige KI bei der appliedAI Institute for Europe gGmbH, ist Mitglied des OECD-Expertennetzwerks für KI und unterstützt vertrauenswürdige KI innerhalb der OECD-Arbeitsgruppe für die Steuerung künstlicher Intelligenz (AIGO). Die Arbeitsgruppe überwacht das Arbeitsprogramm des DPC zu KI-Politik und -Governance und gibt die Richtung vor.

Whitepapers und Artikel zu dem Thema

Whitepaper

AI Act: Risikoklassifizierung von KI-Anwendungen aus der Praxisperspektive

Whitepaper

Wie man KI-Anwendungsfälle identifiziert und priorisiert

Umfrage

Untersuchung der Auswirkungen des EU AI Act auf die Start-ups in Europa

Die Zeit - Artikel

Überraschende Allianzen im Kampf um KI-Regulierung

format_quote

Der EU AI Act wird maßgeblich Innovation in Europa beeinflussen. Was wir in Europa brauchen, sind vertrauenswürdige KI-Anwendungen, die in einem innovationsfreundlichen Rechtsrahmen festgelegt werden.

Dr. Andreas Liebl. Managing Director & Founder of appliedAI
Dr. Andreas Liebl. Managing Director & Founder of appliedAI

Nehmen Sie Kontakt auf mit Deutschlands führenden Experten für die Operationalisierung von KI-Gesetzen

Suchen Sie mehr Informationen darüber, wie Ihr Unternehmen die Vorgaben des AI Acts einhalten kann? Sind Sie daran interessiert, mehr darüber zu erfahren, wie appliedAI Sie unterstützen kann? Kontaktieren Sie uns jetzt!