KI und Mensch verstehen sich

KI und Beipackzettel - was brauchen wir wirklich?

Künstliche Intelligenz (KI) ist eine der wichtigsten Technologien unserer Zeit. Sie bietet enorme Chancen für Innovation, Wachstum und gesellschaftlichen Fortschritt. Gleichzeitig birgt sie auch Risiken und Herausforderungen, die eine verantwortungsvolle und ethische Gestaltung erfordern.

Viele Länder und Organisationen haben sich bereits mit der Frage beschäftigt, wie man einen angemessenen rechtlichen Rahmen für die KI-Entwicklung schaffen kann. Insbesondere der AI-Act der EU wird hierbei mit großer Aufmerksamkeit verfolgt. Aktuellen Berichten zu Folge1, 2, 3 stellen sich nun Deutschland, Frankreich und Italien gegen eine solche gesetzliche Regulierung und fordern stattdessen einen Verhaltenskodex für KI-Entwicklungen und Systeme. Unter anderem wird dabei die Idee einer Art „Beipackzettel“ zu den Informationen „über Risiken und Nebenwirkung“ 😊 der KI in den Vordergrund gerückt.

Doch ist ein Beipackzettel wirklich die beste Lösung für die KI-Regulierung? Ich bin der Meinung, dass der Vorschlag zwar gut gemeint ist, aber nicht ausreicht, um die Komplexität und Dynamik der KI-Entwicklung zu erfassen.

Beipackzettel sind statisch. 

KI ist jedoch keine statische Technologie, sondern eine dynamische und lernende. Sie verändert sich ständig durch neue Daten, Algorithmen und Anwendungskontexte. Das bedeutet, dass ein Beipackzettel schnell veraltet sein könnte oder gar nicht alle relevanten Aspekte abdecken könnte.

Beipackzettel sollen leicht verständlich und simpel sein.

Die Technologie von KI ist allerdings, komplex und vielschichtig. Sie basiert auf wissenschaftlichen Erkenntnissen, mathematischen Modellen und technischen Details, die nicht leicht zu erklären sind. Das bedeutet, dass ein Beipackzettel entweder zu oberflächlich oder zu unverständlich sein könnte.

Beipackzettel genießen ein großes Vertrauen, werden jedoch kaum gelesen und benannte Risiken werden vielfach einfach akzeptiert.

Die KI-Entwicklung ist gerade am Anfang. Viele neue, innovative sowie großartige Ideen werden entwickelt. Beipackzettel entbinden die Entwickler von ihrer Verantwortung. Die Entscheidung, ob eine KI angemessen und ethische Grundsätze berücksichtig, wird auf den Anwender abgewälzt, der oft nicht über das nötige Wissen verfügt, um Entscheidungen der KI nachzuvollziehen. Dabei wird ignoriert, dass KI durch das Training grundlegend vorgeprägt wird und die gesellschaftlichen Normen und Moralvorstellungen der Entwickler und Trainingsdaten widerspiegelt.

Was wir stattdessen brauchen.

Ich bin keineswegs gegen eine Regulierung der KI-Entwicklung. Im Gegenteil, ich bin überzeugt, dass wir dringend gesetzliche Regelungen brauchen, um die ethischen Prinzipien der KI zu gewährleisten. Die Regierungen und Parlamente haben den Auftrag, unser gesellschaftliches Zusammenleben auszugestalten und deren Grenzen zu definieren. Dazu gehört auch zu erforschen, festzustellen und klar zu definieren, in welchen Grenzen KI eingesetzt und entwickelt werden darf. Bspw. LLM-Systeme wie ChatGPT werden mittlerweile immer weiter in unseren Alltag integriert und genutzt. Dabei sind weiterhin viele Fragen – bspw. zum Urheberrecht der Ergebnisse oder zur Nutzung öffentlicher Informationen zu Trainingszwecken – unbeantwortet und hindern Unternehmen an einer effizienten Nutzung.

Ebenso die Definition moralischer Grenzen, bspw. ob wir als Gesellschaft KI für die Entscheidung über den Erhalt einer medizinischen Behandlung, einer Organspende, einer Einstellung in einen Job oder Entlassung akzeptieren, sind offen und sorgen für Unsicherheiten. Sowohl bei den Entwicklern, aber auch bei Unternehmen und Anwendern, die sich hiervon Erleichterungen erhoffen. Diese Fragen und Grenzen können jedoch nicht mit einem Verhaltenskodex geregelt werden. Hierzu bedarf es verbindlicher Vorgaben und Entscheidungen.

Ich verstehe die Sorgen der Regierungen hinsichtlich der Gesetzgebung. Eine übermäßige Regulierung kann tatsächlich Innovationen einschränken und den Wettbewerb behindern. Dennoch halte ich es für bedenklich, die Entwicklung von KI ohne klare Antworten auf offene Fragen unreguliert zu lassen. Daher möchte ich die Gesetzgeber dazu ermutigen, sich auf das Wesentliche zu konzentrieren und dabei ein Umfeld zu schaffen, das Innovation fördert und gleichzeitig die Gesellschaft schützt. Es ist wichtig, einen ausgewogenen Ansatz zu finden, der sowohl die technologische Entwicklung als auch die ethischen und gesellschaftlichen Aspekte berücksichtigt.

Autor: Michael Konitzer

Artikel erstellt am 22.11.2023

Schreibe einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind mit * markiert.

Beitragskommentare