Mit dem AI Act (Artificial Intelligence Act) reagiert die Europäische Union (EU) auf diese Anforderungen und bietet einen weitreichenden rechtlichen Rahmen, der die sichere und ethische Verwendung von KI sicherstellen soll. Für Unternehmen, die im Zuge der Digitalisierung KI-Modelle implementieren möchten, sind die Konsequenzen des AI Act von zentraler Relevanz. In diesem Beitrag erfahren Sie, welche Bestimmungen der AI Act beinhaltet und wie Sie diese in Ihrem Unternehmen wirkungsvoll umsetzen.
Wieso bedarf KI gesetzlicher Rahmenbedingungen?
Die Nutzung von Künstlicher Intelligenz eröffnet komplett neue Möglichkeiten, bringt aber auch einige Risiken mit sich. Ohne gesetzliche Vorschriften könnten KI-Systeme Fehlentscheidungen treffen, die die Gesundheit und die Grundrechte der Menschen gefährden. Der AI Act strebt daher an, die Transparenz, Sicherheit und Vertrauenswürdigkeit von KI-Systemen zu gewährleisten.
Besonders bei risikoreichen Anwendungen, wie in der medizinischen Diagnostik oder beim Einsatz autonomer Fahrzeuge, ist es unabdingbar, strikte Regulierungen zu implementieren, um Missbrauch und unvorhersehbare Schäden zu verhindern. Ein klarer rechtlicher Rahmen fördert zudem Innovation, da er Unternehmen die nötigen Bedingungen bietet, um innerhalb festgelegter Regeln zu agieren. Das stärkt das Vertrauen der Verbraucher und unterstützt die verantwortungsvolle Weiterentwicklung technologischer Lösungen.
Nach welchen Kategorien werden KI-Modelle im Zuge des AI Act eingestuft?
Der AI Act der EU, der im Mai 2024 von den Mitgliedsländern endgültig verabschiedet und beschlossen wurde, gilt als das weltweit erste umfassende Gesetz zur Überwachung von Künstlicher Intelligenz und klassifiziert KI-Systeme in vier Risikogruppen: unannehmbares, hohes, akzeptables und minimales Risiko. Diese Differenzierung ermöglicht eine gezielte Regulierung basierend auf dem Gefährdungspotenzial der jeweiligen Programme.
Die Verordnung wurde am 12. Juli 2024 im Amtsblatt der EU veröffentlicht und trat 20 Tage später, am 1. August 2024, in Kraft. Im Allgemeinen ist der AI Act 24 Monate nach seiner Bekanntgabe vollumfänglich anzuwenden, also ab August 2026.
Es bestehen jedoch spezifische Ausnahmen: Für KI-Lösungen mit unannehmbar hohem Risiko wurde eine Übergangsfrist von sechs Monaten vereinbart, womit die Bestimmungen ab Februar 2025 umzusetzen sind. Die Regelungen zu Verhaltenskodizes sind nach neun Monaten, sprich ab Mai 2025, verpflichtend. Bei KI-Modellen mit allgemeinem Verwendungszweck sollen die Regularien nach zwölf Monaten, also im August 2025, realisiert sein, während die Verpflichtungen für KI-Systeme mit hohem Risiko 36 Monate nach Inkrafttreten, also ab August 2027, gelten.
KI-Lösungen mit unannehmbarem Risiko
KI-Modelle dieser Stufe umfassen Anwendungen, die die Grundrechte und die öffentliche Sicherheit erheblich gefährden. Laut dem AI Act sind die folgenden KI-Praktiken verboten:
- Systeme, die für Social Scoring (soziale Bewertungen) genutzt werden
- Programme, die zur Manipulation des kognitiven Verhaltens dienen
- Biometrische Echtzeit-Fernidentifizierungssysteme sind für Strafverfolgungszwecke in öffentlich zugänglichen Räumen untersagt. Als Ausnahme gilt etwa die gezielte Suche nach Opfern von gewissen Straftaten
- Modelle, die Gesichtserkennungsdatenbanken durch das wahllose Auslesen von Bildern aus dem Internet oder Videoüberwachungsaufnahmen erstellen oder erweitern
- Erkennungssysteme für Emotionen am Arbeitsplatz und in Bildungseinrichtungen
Generative Artificial Intelligence
Webinar-Reihe zu KI
Hochrisiko-KI-Systeme
KI-Anwendungen der Stufe Hochrisiko spielen in der AI-Verordnung eine zentrale Rolle, da sie wesentliche gesellschaftliche Bereiche wie Medizin, Bildung und Justiz beeinflussen können. Sie werden in zwei Hauptkategorien unterteilt:
- Die erste Kategorie umfasst KI-Systeme, die in Produkten verbaut sind, die gemäss EU-Vorschriften einer Drittbewertung bedürfen. Beispiele hierfür sind medizinische Geräte und autonome Fahrzeuge.
- Die zweite Kategorie betrifft eigenständige KI-Anwendungen, die direkt Grundrechte gefährden können. Sie sind im Anhang III der Verordnung spezifiziert und beinhalten unter anderem die Verwaltung kritischer Infrastrukturen, den Zugang zu Bildung, Personalentscheidungen sowie Kreditwürdigkeitsbewertungen.
Unternehmen, die Hochrisiko-KI-Systeme entwickeln oder einsetzen, sind verpflichtet, strenge Risikobewertungen durchzuführen. Sie müssen zudem gewisse Transparenzanforderungen erfüllen und regelmässige Audits nachweisen, um die Einhaltung ethischer und rechtlicher Standards sicherzustellen.
Modelle mit allgemeinem Verwendungszweck
Unter risikoarmen Modellen versteht der AI Act Anwendungen wie Chatbots und Empfehlungstools. Solche Systeme werden als moderat risikobehaftet eingestuft und unterliegen gewissen Transparenzanforderungen. Dazu gehört beispielsweise, dass sie klar als KI-Technologie gekennzeichnet und die grundlegenden Funktionsweisen erläutert werden.
Für Systeme mit sehr geringem Risiko, die nicht explizit unter die Vorgaben des AI Acts fallen, wird Unternehmen empfohlen, freiwillig Verhaltenskodizes zu erstellen. Diese sollen den verantwortungsvollen Einsatz von KI regeln. Zudem wird grundsätzlich erwartet, dass Unternehmen ihre Belegschaft im Umgang mit Künstlicher Intelligenz schulen, um ein grundlegendes Verständnis und Bewusstsein zu bilden.
Auf dem Weg zum «AI Native» Unternehmen
Swiss AI Impact Report 2024
Was bedeutet der AI Act für Unternehmen?
Der AI Act bringt für Unternehmen umfassende Verpflichtungen mit sich. Zunächst müssen Firmen ihre KI-Modelle klassifizieren und klären, welcher Risikokategorie sie angehören. KI-Lösungen der Stufe Hochrisiko erfordern besondere Massnahmen, wie die Implementierung von Risikomanagementsystemen und regelmässige Überprüfungen. Zudem gelten für Unternehmen bestimmte Transparenzpflichten. Darunter zählen unter anderem das Bereitstellen der Daten, die zum Training der KI genutzt worden sind, sowie technische Aufbereitungen und Validierungsdatensätze.
Für Unternehmen bedeutet dies, dass bereits in der Entwicklungsphase von KI-Lösungen auf die Einhaltung der gesetzlichen Vorgaben geachtet werden muss. Das beinhaltet die Dokumentation von Entscheidungsprozessen, die Sicherstellung der Datenqualität und die Durchführung umfangreicher Tests. Da die einzelnen Anforderungen je nach Risikoeinstufung sehr unterschiedlich ausfallen, empfehlen wir Ihnen eine professionelle Beratung zum Thema KI in Erwägung zu ziehen, um die Einhaltung sämtlicher rechtlicher Rahmenbedingungen sicherzustellen.
KI-Modelle erfolgreich implementieren mit bbv
Fühlen Sie sich unsicher bezüglich der Auswirkungen des AI Acts auf Ihr Unternehmen? Bei bbv erwarten Sie umfassende Beratungsdienstleistungen, um Ihre KI-Strategien rechtssicher und zukunftsorientiert zu gestalten. Kontaktieren Sie uns für eine persönliche Beratung oder um an unserem Workshop «Generative AI» teilzunehmen, die tiefgehende Einblicke in den Umgang mit Künstlicher Intelligenz und deren Potenziale bieten.
Hinweis: Wir bieten keine Rechtsberatung an. Die in diesem Text enthaltenen Informationen basieren auf unserer eigenen Recherche und sind rechtlich nicht bindend. Für verbindliche rechtliche Auskünfte empfehlen wir, stets einen rechtlichen Experten oder eine Expertin zu konsultieren.