Über die Regulierung von künstlicher Intelligenz (KI) wird schon länger intensiv diskutiert. Voraussichtlich im Jahr 2024 soll das neue KI-Gesetz der EU (EU AI Act) in Kraft treten. Es unterscheidet verschiedene Systeme von KI nach ihrem Risiko für die Menschen in der Europäischen Union (EU). Anwendungen von KI mit inakzeptablem Risiko dürften dann in der EU nicht genutzt oder vertrieben werden, solche mit hohem Risiko würden reguliert. „Die verhältnismäßige Regulierung von künstlicher Intelligenz ist eine der großen Herausforderungen unserer Zeit im Bereich der neuen Technologien“, sagt die Rechtswissenschaftlerin Prof. Dr. Silja Vöneky. Sie begrüßt, dass die EU hier voranschreite, merkt aber gleichzeitig an, dass eine solche Regulierung „verhältnismäßig und auch hinreichend adaptiv“ sein müsse – das sei im EU AI Act noch nicht genug berücksichtigt. Adaptivität, also die schnelle Anpassungsfähigkeit an Chancen und Risiken bei neuen Technologien, steht im Mittelpunkt des gemeinsamen interdisziplinären Forschungsinteresses von Vöneky, dem Philosophen Prof. Dr. Oliver Müller und dem Bioinformatiker Prof. Dr. Rolf Backofen von der Uni Freiburg.
Vielzahl rechtlicher und ethischer Rahmenbedingungen relevant
Bei der Regulierung, sagt Müller, seien eine Vielzahl rechtlicher und ethischer Rahmenbedingungen relevant, von Aspekten des Persönlichkeitsschutzes bis hin zur Frage, „inwiefern Chatbots gesellschaftliche Vorurteile reproduzieren“. Im Angesicht dieser Komplexität und sich rasant entwickelnder Technologien hinke die Regulierung derzeit weiter hinterher. In Hinblick auf Adaptivität könne KI selbst ein wichtiges Werkzeug sein, sagt Backofen: „Bei einem sehr schnell agierenden System wie den Chatbots braucht es regulierende KI, die direkt auf Veränderungen reagieren kann.“ Die Geschwindigkeit bei der Bewertung neuer Technologien könne außerdem, so Müller, durch „interne Kohärenz“ erhöht werden, also dadurch, „dass wir nicht für jede neue Technologie von vorne anfangen müssen“. Denn KI ist zwar seit dem Markteintritt des Chatbots ChatGPT im öffentlichen Diskurs sehr präsent, aber nur eine der Emerging Technologies neben weiteren wie grüner Gentechnik und Gentherapie.
Innovationspotenzial nicht behindern
Bei der Regulierung gehe es dabei nicht um die Verhinderung von Innovation. Vielmehr, so Backofen, „brauchen wir adaptive Regulierungen, damit wir die Vorteile der Technologien gut nutzen können.“ Hilfreich sei Regulierung laut Vöneky nämlich dann, wenn sie „einerseits schnell Risiken einhegt und andererseits das Innovationspotenzial nicht behindert.“ Für eine solche verhältnismäßige Regulierung sei ein interdisziplinärer Ansatz entscheidend: „Wir können nicht sinnvoll über Normen und Gesetze diskutieren, wenn wir die Technologien nicht verstehen.“
KI ist nicht nur die nette App
Vöneky betont zudem, dass ein neutralerer Blick nur durch Forscher/-innen gelingen könne, die kein unmittelbares Interesse daran haben, ein Produkt zu verkaufen. Es sei die Aufgabe, ein Bewusstsein für Chancen und Risiken zu schaffen, damit die gesellschaftlichen Debatten auf Grundlage fundierter Informationen geführt werden könnten. Gleichzeitig gebe es ein „Spannungsfeld zwischen den Erwartungen aus juristisch-ethischer Perspektive an Normen und Werte auf der einen Seite und der öffentlichen Wahrnehmung auf der anderen, und diese können durchaus unterschiedlich ausfallen“, ergänzt Müller. Auf welche gesellschaftliche Resonanz das EU KI Gesetz treffen werde, bleibe abzuwarten – es werde aber zu einem Zeitpunkt in Kraft treten, zu dem sich in Vönekys Wahrnehmung die Bevölkerung „stärker dessen bewusst wird, dass KI nicht nur eine nette App auf dem Smartphone ist, sondern auch größere disruptive Gefahren mit sich bringt.“
Quelle: idw/Albert-Ludwigs-Universität Freiburg im Breisgau
Artikel teilen