Mit gestaffelten Übergangsfristen tritt der europäische AI Act in Kraft. Der TÜV Verband unterstützt die Regelung und fordert eine schnelle Klärung von noch offenen Umsetzungsfragen. Der AI Act legt erstmals Regeln für Künstliche Intelligenz fest und schafft somit einen global führenden Rechtsrahmen für sichere und vertrauenswürdige KI.
„Der AI Act bietet die Chance, vor negativen Auswirkungen von Künstlicher Intelligenz zu schützen und gleichzeitig Innovationen zu fördern. Er kann dazu beitragen, einen globalen Leitmarkt für sichere ‚KI Made in Europe‘ zu etablieren“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Es ist jetzt wichtig, die Umsetzung effizient und unbürokratisch zu gestalten. Unabhängige Stellen spielen dabei eine wesentliche Rolle, nicht nur im Hinblick auf die verbindlichen Anforderungen, sondern auch im freiwilligen KI-Prüfmarkt.“
Die gestaffelten Übergangsfristen
Der EU AI Act tritt am 1. August 2024 mit gestaffelten Übergangsfristen in Kraft. Sechs Monate nach Inkrafttreten, das heißt ab Anfang 2025, sollen zunächst KI-Systeme verboten werden, die unter anderem manipulative oder täuschende Techniken einsetzen. Ab dem 1. August 2025 greifen Allzweck-KI-Pflichten. Zudem müssen die EU-Mitgliedstaaten nationale Behörden für die Marktüberwachung benennen.
Verpflichtende Prüfungen für Hochrisiko-KI in Bereichen wie Kreditvergabe, Personalwesen oder Strafverfolgung sind ab August 2026 erforderlich. Sie betreffen nicht nur KI-Entwickler, sondern KI-Anbieter, und Betreiber risikoreicher KI. Ab 2027 treten die Anforderungen an KI in drittprüfpflichtigen Produkten in Kraft. Bühler: „Prüfungen von KI-Systemen schaffen Vertrauen und sind schon heute ein Wettbewerbsvorteil. Unternehmen sind gut beraten, sich jetzt mit den Anforderungen vertraut zu machen, insbesondere im Hinblick auf die Übergangsfristen. Es ist wichtig, abzuschätzen, wie und wo der AI Act ihre Aktivitäten betrifft.“
Mitgliedsstaaten sind bei Umsetzung gefordert
„Eine einheitliche Interpretation und konsequente Anwendung des risikobasierten Ansatzes sind entscheidend, damit der AI Act in der Praxis wirksam wird – hier sind die Mitgliedsstaaten gefordert“, so Bühler. Aus Sicht des TÜV-Verbands sollte besonderes Augenmerk auf eine effiziente und unbürokratische Umsetzung gelegt werden. Klare Zuständigkeiten und verantwortliche Stellen sind notwendig, um die Regelungen praktisch umzusetzen.
So sollten Umsetzungsleitfäden für die Einstufung von Hochrisiko-KI-Systemen vom AI Office (Europäisches KI-Büro) schnellstmöglich veröffentlicht werden, um insbesondere kleinen und mittleren Unternehmen (KMU) Rechtssicherheit zu geben. Darüber hinaus sind neue KI-Risiken sowie die Entwicklung systemischer Risiken von besonders leistungsfähigen Allzweck-KI-Modellen im Blick zu behalten und der Aufbau einer systematischen KI-Schadensberichterstattung voranzutreiben.
Das TÜV AI.Lab
Das 2023 als Joint Venture der TÜV-Unternehmen gegründete „TÜV AI.Lab“ übersetzt regulatorische Anforderungen an KI in die Prüfpraxis und entwickelt quantifizierbare Konformitätskriterien und geeignete Prüfmethoden für KI. Zum Inkrafttreten des AI Acts veröffentlicht das TÜV AI.Lab den AI Act Risk Navigator, ein kostenloses Online-Tool zur Risikoklassifizierung von KI-Systemen.
„Mit dem AI Act Risk Navigator des TÜV AI.Lab bieten wir eine nutzerfreundliche Anwendung, mit der Unternehmen verstehen können, ob und wie sie vom AI Act betroffen sind“, sagt Franziska Weindauer, Geschäftsführerin des TÜV AI.Lab. „Unser Ziel ist es, Klarheit über die Auswirkungen der KI-Verordnung zu schaffen, sodass Unternehmen sich rechtzeitig vorbereiten können. Wenn wir Qualitätsanforderungen an Künstliche Intelligenz von Beginn an mitdenken, kann vertrauenswürdige Künstliche Intelligenz zum europäischen Alleinstellungsmerkmal werden.“ Der AI Act Risk Navigator unterstützt dabei, KI-Systeme gemäß den Risikoklassen des AI Acts einzuordnen und Transparenz über die geltenden Anforderungen zu schaffen.
Verschiedene Risikoklassen
Die EU-Regulierung teilt KI-Anwendungen in vier Risikoklassen mit jeweils unterschiedlichen Anforderungen ein, die in den kommenden Monaten schrittweise einzuhalten sind. Systeme mit hohem Risiko, die in Bereichen wie Medizin, kritische Infrastrukturen oder Personalmanagement eingesetzt werden, unterliegen beispielsweise künftig strengen Auflagen und müssen umfassende Anforderungen an Transparenz, Sicherheit und Aufsicht erfüllen. Bei Verstößen drohen Bußgelder von bis zu 15 Millionen Euro oder bis zu drei Prozent des weltweiten Jahresumsatzes.
„Wir wissen, dass das für Unternehmen Fragen aufwirft. Deshalb wollen wir zu größerer Klarheit über das eigene Risikoprofil und die zu erfüllenden Anforderungen beitragen“, betont Weindauer. Systeme mit begrenztem Risiko, wie Chatbots, müssen nur Transparenzanforderungen erfüllen, während Systeme mit minimalem Risiko, wie einfache Videospiele, gar nicht reguliert werden. Die risikobasierte Klassifizierung soll sicherstellen, dass der Einsatz von KI sicher und vertrauenswürdig ist, damit so die Innovationskraft der Technologie und deren Marktdurchdringung weiter gesteigert werden kann. (vk)