6 Minuten Lesezeit Das KI-Gesetz wird die Art und Weise, wie wir über KI denken, verändern. Daher ist es jetzt an der Zeit, für einen branchenübergreifenden Mindset Change in Bezug auf die Prozesse hinter Responsible AI und Technologie zu sorgen. „Move Fast and Break Things“ - seit Jahren der Schlachtruf von Big Tech. Und da sich diese Denkweise als der beste Weg zu erfolgreicher Innovation erweist, werden Vorschriften oft nur als lästige Hindernisse betrachtet. Was aber, wenn wir uns so schnell bewegen, dass das, was kaputt (break) geht, nicht mehr repariert werden kann? Und was, wenn es sich dabei um die Gesellschaft selbst handelt? Genau das ist die Sorge, die einige Fachleute in Bezug auf KI haben. Deshalb müssen Regierungen, Wirtschaft und Organisationen jetzt zusammenarbeiten, um möglichen Risiken durch die richtigen KI-Gesetze entgegenzuwirken. Das von der EU vorgeschlagene KI-Gesetz zielt darauf ab, diese Leitplanken zu setzen. Aber, was bedeutet das für die Unternehmen, die künstliche Intelligenz einsetzen? Und - ganz entscheidend - wie können sie die Prozesse hinter einer transparenteren KI standardisieren? Der AI Act: Zeit zu Handeln Der EU AI Act, der derzeit überarbeitet wird, soll menschliche Risiken im Zusammenhang mit KI-Systemen und generativen Modellen erkennen und präventiv bekämpfen. „Lange Zeit war die KI überhaupt nicht reguliert. Jetzt müssen Regierungen, Branchen und verschiedene Organisationen zusammenarbeiten, um mögliche Risiken gesetzlich zu regeln“ In den meisten Fällen geht es bei diesen Risiken um die Vermeidung von Menschenrechtsverletzungen - wie die Einschränkung von KI-gestütztem Social Scoring oder Verhaltensmanipulation. Aber ist das zu wenig und zu spät? „Dies ist im Wesentlichen eine Reaktion auf die rasante Entwicklung, die wir im letzten Jahr im Bereich KI erlebt haben“, sagt Dr. Lisa Falco, Lead Data & AI Consultant bei Zühlke. „Lange Zeit war KI überhaupt nicht reguliert, sodass Unternehmen einfach jedes beliebige Produkt ohne jegliche Kontrolle auf den Markt bringen konnten. Und wir haben bereits einige fatale Folgen gesehen, wenn diese Algorithmen in der freien Wildbahn eingesetzt wurden“. „Hier geht es also darum, die verantwortungsvolle Anwendung von KI zu erzwingen. Es ist ein Weg, um zu gewährleisten, dass das von Ihnen implementierte Produkt keine unbeabsichtigten Folgen hat. Und dass Sie die potenziellen Risiken so gut wie möglich kennen“. Das einzige Problem? Die KI entwickelt sich rasant, und die Gesetzgebung ist - wie immer – einen Schritt hinterher. „Die Regulierung ist in dieser Hinsicht definitiv im Rückstand“, sagt Lisa. „Aber es ist schwierig, weil niemand die Folgen dieser Technologie kennt. Nicht einmal die Unternehmen, die AI solutions, wie z. B. ChatGPT auf den Markt bringen, wissen, welche langfristigen Folgen sie haben werden. Und man kann keine Gesetze für etwas erlassen, das es noch gar nicht gibt“. Bilanz ziehen und vorankommen Die Auswirkungen des kommenden KI-Gesetzes werden von Branche zu Branche sehr unterschiedlich sein. Lisa Falco arbeitet u. a. mit einer Reihe von Zühlke-Kunden aus dem Healthbereich zusammen, wo allumfassende Vorschriften und Sicherheitsmaßnahmen die Norm sind: „Wenn etwas als Medizinprodukt betrachtet wird, unabhängig davon, ob es KI verwendet oder nicht, muss dieses Produkt den Vorschriften entsprechen. Man muss den Verwendungszweck des Produkts klären, nachweisen, dass es sicher ist, und zeigen, dass der Verwendungszweck erfüllt wird. Das ist also bereits eine Arbeitsweise, an die die Branche gewohnt ist“. Selbst medizinisch ausgerichtete Verbrauchertechnologie muss hier nachziehen. Die Apple Watch zum Beispiel hat für einige ihrer Funktionen eine FDA-Zulassung erhalten, weil sie, wie Lisa Falco es ausdrückt, „potenziell lebensbedrohliche Folgen haben können, wenn sie falsch sind“. Für Unternehmen, die sich in dieser Welt gut auskennen, wird sich der AI Act nicht als einschneidend erweisen. Andere werden jedoch nicht so viel Glück haben - und sie müssen jetzt mit der Planung beginnen, wenn sie wollen, dass ihr Einsatz von KI mit den Ideen der EU übereinstimmt. „Das hat große Auswirkungen auf die Qualitätssicherung“, sagt Michael Denzler von Zühlke, der mit Kunden aus dem Bereich der Verbraucher- und Unternehmenstechnologie zusammenarbeitet. „Bei der KI-Entwicklung müssen viele Unternehmen, obwohl sie bereits mit „Best-Practice“-Prinzipien arbeiten, dennoch neu herausfinden, welche KI-Lösungen betroffen sind. Wenn Sie Anwendungen mit hohem Risiko haben (wie die EU sie definiert), dann ist das schwierig zu lösen“, sagt Denzler. „Das führt zu großen Diskussionen über Sicherheit und darüber, wie man sich in Puncto Qualitätssicherung, Analyse von Kompetenzlücken und rechtlichen Änderungen anpassen kann“. „Man muss die Art und Weise, wie man intern arbeitet, ändern“, bestätigt Lisa Falco. „Es braucht jetzt ein Qualitätsmanagementsystem, wenn man mit KI entwickelt. Die richtigen Prozesse, Mitarbeitenden, Datenkontrollen und Datenverwaltung müssen vorhanden sein“. Überraschenderweise verlangsamen diese Diskussionen die Entwicklung jedoch nicht. Für Unternehmen, die ihre Prozesse schnell anpassen können, stellen neue Technologien nach wie vor jeden möglichen Innovationsstau in den Schatten. „Der AI Act zieht definitiv eine Menge Aufmerksamkeit und Ressourcen auf sich“, fügt Michael Denzler hinzu, „aber er verlangsamt die Dinge weniger als der generative KI-Vorstoß sie tatsächlich beschleunigt. Im Moment wächst der Einsatz von KI also schneller als je zuvor“. Letztlich sollte es bei der Anpassung an die Risk-Management-Regeln um mehr gehen als um das bloße Ankreuzen von Kästchen. Theoretisch sollte sie auf der Grundlage standardisierter bewährter Verfahren erfolgen. Das Erreichen dieses Ziels ist Sache jedes einzelnen Unternehmens, aber der AI Act kann eine wirksame Basis schaffen, die verhindert, dass böswillige Akteure die KI laufen lassen, bevor sie kriechen kann. Ein Fundament für Transparenz Wie sogar die EU selbst einräumt, ist der AI Act bei weitem nicht perfekt; auf der Website des Gesetzes gibt es sogar einen Abschnitt, der sich mit seinen potenziellen Fallstricken und Schlupflöchern befasst. „Diese Unzulänglichkeiten schränken die Fähigkeit des Gesetzes ein, dafür zu sorgen, dass KI eine positive Kraft in Ihrem Leben bleibt “, räumt die EU ein und fügt hinzu, dass die mangelnde Flexibilität des Gesetzes eine große Achillesferse ist: „Wenn in zwei Jahren eine gefährliche KI-Anwendung in einem unvorhergesehenen Bereich eingesetzt wird, sieht das Gesetz keinen Mechanismus vor, um sie als hochriskant zu bezeichnen“. Es geht also nicht darum, eine absolute Ressource für die Ewigkeit zu sein, sondern darum, Unternehmen dazu zu bringen, eine verantwortungsvolle Grundlage für die künftige KI-Entwicklung zu schaffen. „Sobald Sie diese Grundlage haben“, meint Lisa Falco, „gibt es keinen Grund, warum sich Ihre Produktentwicklung wesentlich verlangsamen sollte. Es wird einige Hürden mit sich bringen, aber es bietet auch zusätzliche Sicherheitsvorkehrungen. Alles, was auf den Markt gebracht wird, hat potenzielle Konsequenzen für den Ruf oder die Rechtslage – der AI Act ist eigentlich nur ein Anreiz, um dies in diesem neuen Bereich zu verhindern“. „Der Schlüssel zu all dem ist Transparenz, was bedeutet, dass man in der Lage sein muss, die Daten und Modelle, die man in einer KI-Anwendung verwendet, zu validieren und zu erklären. Und dass man die Ergebnisse zum Wohle des Endnutzenden klar interpretieren kann“. „Wir bei Zühlke empfehlen jedoch, weiterzugehen und bei jeder Implementierung einer KI-Lösung die Daten zu validieren, zu verstehen und weiterzugeben, die in ein generatives Modell hinein und aus diesem heraus fließen“. Diese Denkweise hat zur Entwicklung von Zühlkes Responsible AI Framework geführt, einem mehrstufigen Prozess, bei dessen Einführung wir derzeit eine Reihe von Kunden unterstützen, um sich gegen Risiken und die Regulierungswut abzusichern. Es handelt sich dabei um ein Framework, das die Variablen Mensch, Daten, Modell und Nachhaltigkeit umfasst und somit alle Eventualitäten von KI-Anwendungen abdeckt. „Das Wichtigste dabei ist, dass man positive Innovationen nicht blockieren will“, erklärt Lisa Falco den Ansatz von Zühlke. „Es gilt die Grundlage zu schaffen, um die KI-Verantwortung in den täglichen Planungen und Prozessen zu verankern“. Wenn Sie mehr erfahren möchten, lesen die Details zu unserem Framework für responsible AI. Oder sprechen Sie uns an, um gemeinsam mit verantwortungsvollen und menschenzentrierten Data & AI solutions Mehrwert zu kreieren. You might also like... Data & AI – Responsible AI: Entwicklung ethischer KI-Anwendungen Mehr erfahren Data & AI – EU-KI-Gesetz: Wie lässt sich Künstliche Intelligenz in Zukunft regulieren Mehr erfahren Data & AI – Der EU Data Act: Was Sie für die Datenökonomie brauchen Mehr erfahren Ansprechpartner für die Schweiz Dr. Lisa Falco Lead Data Consultant Lisa Falcos Leidenschaft sind KI und Maschinelles Lernen und ihre positiven Auswirkungen auf die Gesellschaft. Sie bringt über 15 Jahre Branchenerfahrung in der Anwendung von Data Science im medizinischen Umfeld mit und hat bereits mehreren KI-gestützten MedTech-Produkten zur Marktreife verholfen. Lisa promovierte an der EPFL in der Schweiz in Biomedizinischer Bildanalyse und erwarb einen Mastertitel in Technischer Physik an der Chalmers-Universität in Schweden. Kontakt lisa.falco@zuehlke.com +41 43 216 60 92 Schreiben Sie uns eine Nachricht You must have JavaScript enabled to use this form. Vorname Nachname E-Mail Telefonnummer Message Absenden Bitte dieses Feld leer lassen Schreiben Sie uns eine Nachricht Vielen Dank für Ihre Nachricht.