Ob Diskriminierung, Desinformation oder mangelnder Datenschutz: Künstliche Intelligenz (KI) birgt zahlreiche Risiken. Einer repräsentativen Forsa-Umfrage im Auftrag des TÜV-Verbands zufolge misstrauen jedoch mehr als zwei Drittel der Deutschen der Politik, dass sie mögliche KI-Risiken begrenzen wird. Dabei haben 45 % ein geringes und 23 % gar kein Vertrauen.
Vorteile der Technologie nutzen, vor Risiken schützen
„Künstliche Intelligenz kommt in medizinischen Geräten, Fahrzeugen oder anderen sicherheitskritischen Produkten zum Einsatz und beeinflusst schon heute unser Mediensystem massiv“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Unsere Gesellschaft sollte die enormen Vorteile dieser Technologie nutzen und sich gleichzeitig vor den Risiken schützen.“
Die Menschen müssten sich darauf verlassen können, dass KI-Anwendungen sicher sind. Zu diesem Zweck hat die EU die europäische KI-Verordnung (EU AI Act) verabschiedet. Ziel ist es, einen Rechtsrahmen für sichere und vertrauenswürdige KI zu schaffen.
„Der AI Act stellt sicher, dass KI-Systeme nicht missbraucht werden und schützt die Grundrechte der Bürgerinnen und Bürger“, sagt Bühler. „Gleichzeitig fördert er KI-Innovationen made in Europe und schafft Vertrauen in der breiten Bevölkerung.“ Laut der Umfrage hat aber bisher nur gut ein Viertel der Befragten überhaupt schon mal vom EU AI Act gehört (28 %).
AI Act in entscheidender Phase der nationalen Umsetzung
Aktuell befindet sich der AI Act in der entscheidenden Phase der nationalen Umsetzung. „Die Sorgen der Menschen hinsichtlich der Handlungsfähigkeit der Politik machen deutlich, dass der der europäische AI Act jetzt zügig umgesetzt werden muss – trotz der aktuellen Regierungskrise“, betont Bühler. Der Referentenentwurf für die deutschen Umsetzungsbestimmungen dürfe nicht auf Eis gelegt werden. „Unternehmen und Prüforganisationen brauchen Planungs- und Rechtssicherheit.“
Der AI Act teilt KI-Anwendungen in vier Risikoklassen mit jeweils unterschiedlichen Anforderungen ein, die in den kommenden Monaten schrittweise erfüllt werden müssen. Je höher das Risiko bei der Anwendung eingeschätzt wird, desto strenger sind die Anforderungen. Dabei reguliert er auch systemische Risiken von Allzweck-KI wie ChatGPT, vor allem durch strengere Transparenzanforderungen.
Intensive Vorbereitungen für eine effektive KI-Aufsicht
In Deutschland werden intensive Vorbereitungen getroffen, um eine effektive KI-Aufsicht zu etablieren. Offen sind noch einige Fragen wie die genaue Ausgestaltung der Aufsichtsbehörden, die Auslegung von Schlüsselbegriffen wie „hohes Risiko“ eines KI-Systems nach Inverkehrbringen oder Inbetriebnahme sowie die Erarbeitung konkreter technischer Standards.
„Es gilt nun, zügig einen einheitlichen Leitmarkt für KI-Prüfungen und -Zertifizierungen zu etablieren, damit Deutschland und Europa wettbewerbsfähig bleiben“, erklärt Bühler. Die TÜV-Unternehmen stehen als Benannte Stellen für die Prüfung und Zertifizierung von KI bereit. Das im Jahr 2023 als Joint-Venture gegründete TÜV AI.Lab übersetzt die regulatorischen Anforderungen an KI in die Prüfpraxis und entwickelt quantifizierbare Konformitätskriterien und geeignete Prüfmethoden. (jpk)