5 Minuten Lesezeit Mit Insights von Tabi Day Professional Data Engineer Dawson Silkenat Professional Data Engineer Neben halluzinatorischen Ergebnissen und Sicherheitsmängeln wird die Zuverlässigkeit von Künstlicher Intelligenz oft in Frage gestellt, wenn es um Voreingenommenheit geht – und um die ständige Herausforderung, eine faire KI sicherzustellen. Denn was nützt es, wenn man ein KI-Tool um die Beantwortung einer Frage bittet, aber die Antwort von vorneherein voreigenommen ist? Und was noch wichtiger ist: Welchen Schaden könnte diese Antwort anrichten, wenn sie für bare Münze genommen wird? Die Allgegenwart von VorurteilenVorurteile sind allgegenwärtig, und es ist bekanntermaßen schwierig, sie auszumerzen. Das gilt für die KI-Entwicklung ebenso wie für die Gesellschaft im Allgemeinen, wo tief in uns verankerte Vorurteile unsere persönlichen Entscheidungen beeinflussen und kollektive Vorurteile bestimmte Gruppen benachteiligen oder begünstigen. Voreingenommenheit äußert sich auf einer grundlegenden Ebene in Entscheidungen und Meinungen, die auf von uns konsumierten Informationen beruhen. Unabhängig davon, ob diese Informationen korrekt oder eine faire Darstellung der Wirklichkeit sind. Und genauso verhält es sich mit KI. Die Modelle – von ChatGPT bis hin zu maschinellen Lernprogrammen für die Radiographie – werden auf begrenzten Datensätzen trainiert, die nur selten vollständig repräsentativ sind. Nehmen wir zum Beispiel Googles Gemini. Ein kürzlich abgeschlossener 60-Millionen-Dollar-Jahresvertrag beinhaltet, dass der GenAI-Chatbot zu Trainingszwecken Zugang zu sämtlichen nutzergenerierten Inhalten von Reddit hat. Aber es gibt Vorurteile in „them there hills“. Das Reddit-Publikum ist überwiegend männlich, und etwa die Hälfte der 500 Millionen Nutzenden sind Amerikaner:innen mit College-Abschluss. Diese Nutzenden vertreten (und verbreiten) also naturgemäß ein relativ enges Meinungsspektrum, wenn man es mit der globalen menschlichen Erfahrung vergleicht. Einerseits sind mehr Daten oft besser. Andererseits ist kein Datensatz völlig fair, was die Entwicklung und Überprüfung von KI-Modellen zu einer kniffligen Aufgabe macht. Wie das alte Sprichwort sagt: kommt Mist rein, kommt Mist raus. AI-Voreingenommenheit: das Feuer schürenVerzerrungen generativer KI sind potenziell gefährlich, aber LLMs sind nur ein Teil des größeren KI-Puzzles. Maschinelles Lernen und Basismodelle sind andere Bereiche der künstlichen Intelligenz, die problematische Ergebnisse liefern können, wenn ihre Trainingsdaten nicht ausreichend repräsentativ sind. Ein KI-basiertes Tool, das entwickelt wurde, um Krebstumore auf Röntgenbildern zu finden, könnte beispielsweise falsche Negativmeldungen liefern, wenn seine Trainingsdaten nur eine bestimmte Bevölkerungsgruppe repräsentieren. Ein Tool, das Empfehlungen für die Medikamentendosierung geben soll, könnte Patientinnen und Patienten gefährden, wenn die Informationen, auf denen diese Empfehlungen beruhen, nur einen begrenzten Umfang haben. Die Gesundheitsbranche ist also vermutlich am stärksten von KI-Voreingenommenheit betroffen, aber sie ist nicht die einzige. Der Finanzsektor ist ein weiterer potenzieller Nährboden für ein durch Verzerrung verursachtes Risiko. Algorithmische Voreingenommenheit könnte zu diskriminierenden Entscheidungen über Kredite oder Kreditratings führen – und das hat das Potenzial, die systemischen Probleme zu verstärken, die von vornherein zu voreingenommenen Datensätzen beitragen. Der EU AI Act, der als potenzieller Maßstab für regulatorische Überlegungen zu diesem Thema gilt, zielt darauf ab, die Nutzung von KI für Social-Scoring-Anwendungen aus genau diesen Gründen einzuschränken. Aber es müssen nicht unbedingt große Entscheidungen und risikoreiche Ergebnisse sein, damit Voreingenommenheit Probleme verursacht; Verzerrung in einer alltäglicheren, alltäglichen KI-Umgebung kann genauso problematisch sein. Wenn Sie z. B. eine Stellenanzeige veröffentlichen möchten und ein KI-Tool feststellt, dass eine bestimmte Gruppe sich eher bewirbt, wird dies wahrscheinlich Ihre Denkweise, den Wortlaut der Anzeige und die Art der Bewerbenden, die Sie in die engere Auswahl nehmen, beeinflussen. Das Ergebnis würde das Stereotyp verewigen: voreingenommene Ergebnisse, die die Voreingenommenheit auf der Eingabeebene verstärken. Das Problem ist, dass Verzerrungen in jeder Phase der KI-Entwicklung und -Implementierung auftreten können, und es gibt keine Einheitslösung, um sie zu minimieren. Tatsächlich kann die Entschärfung von KI-Modellen sogar zu einer verminderten Genauigkeit führen, da sie blind für die entscheidenden Faktoren sind – etwas, das wir den „Kompromiss zwischen Verzerrung und Genauigkeit“ nennen. Stellen Sie sich zum Beispiel vor, Sie bewerten Prüfungsarbeiten und entscheiden sich dafür, allen eine Zwei zu geben, unabhängig von ihren Antworten. Das ist wohl die am wenigsten voreingenommene Art, die Arbeiten zu bewerten. Aber es ist auch nicht sehr genau bzw. fair. All dies wirft die große, offensichtliche Frage auf: Wie können wir es schaffen, faire, genaue KI-Tools ohne inhärente Voreingenommenheit zu entwickeln?Ein Framework für faire KIDie Antwort scheint ernüchternd: Es geht nicht. Naja, zumindest nicht zu 100 %. Und das ist eine zentrale Erkenntnis: Solange man nicht von jedem einzelnen Menschen auf der Erde Daten erheben und auswerten kann, wird es immer Verzerrungen in der Modellierung geben. Die Aufgabe besteht also darin, die Risiken ständig zu verringern und zu entschärfen. Und zwar in jeder Phase der Entwicklung und Bereitstellung einer Anwendung. Von Anfang an müssen Sie einen zyklischen, systematischen Prozess der Iteration, Messung und Verbesserung Ihrer Eingabedaten, Ihres KI-Modells und Ihrer Metriken einplanen: 1. Eingabedaten Möglichst systematische Verknüpfung von Datensätzen, um reproduzierbare Versionen von Eingabedatengruppen zu erstellen, die gegeneinander getestet werden können. 2. AI-Modelle Erprobung einer Vielzahl von Techniken unter Verwendung von modularisiertem Code, der Modelle, Parameter und Debiasing-Techniken testen kann.3. Messung Testen, messen und visualisieren Sie die Ergebnisse und nutzen Sie diese, um weitere Anpassungen an Ihren Datensätzen vorzunehmen. Wenn Sie die Schritte eins und zwei sauber ausführen, erhalten Sie eine Vielzahl von Daten, die auf einer ganzen Reihe von getesteten Variablen basieren. Um diese Daten nutzen zu können, müssen Sie zunächst eine Ausgangsbasis erstellen, indem Sie Ihr Modell schonungslos entschärfen und die Genauigkeit im Vergleich zur Fairness messen. Dann können Sie Ihre systematischeren Techniken mit dieser Ausgangsbasis vergleichen – eine konsistente Leistung wird die besten Debiasing-Methoden herauskristallisieren. Unsere Empfehlungen beruhen auf der Formalisierung einer Reihe von Best Practices für die Zusammenarbeit, die auf mehreren Schlüsselprinzipien basieren: Systematische Tests und Messungen Vielfältige und repräsentative Datenerhebung Kontinuierliche Überwachung und Iteration Gemeinsame Verantwortung für mehrere Interessengruppen Transparenz bei der Entscheidungsfindung Verständnis und Bewältigung von Zielkonflikten KI-Fairness: eine kontinuierliche GruppenarbeitDas ist kein einmaliger Prozess und auch nichts, was man im Hintergrund laufen lassen kann, um einfach per Klick „faire KI“ zu aktivieren. Stattdessen handelt es sich um ein Framework, das auf ständiger Iteration beruht, um eine ganzheitliche Sicht auf Verzerrungen in der KI-Pipeline zu ermöglichen – ein Framework, das ständiges menschliches Eingreifen und multidisziplinäres Engagement erfordert. Debiasing ist also eine Aufgabe für jeden in der Entwicklungspipeline, nicht nur für Data Scientisten. Durch die Zusammenarbeit von Datenteams, Produktverantwortlichen und Aufsichtsbehörden kann eine transparente, überprüfbare und robuste KI-Entscheidungsfindung ermöglicht werden, die Verzerrungen unter Kontrolle hält. Entwickeln Sie ohne Vorurteile: Zühlkes Framework für Responsible AI bietet eine Reihe von Richtlinien für die Entwicklung wirklich sicherer, ethischer und nachhaltiger KI-Tools. Das könnte Sie auch interessieren... Data & AI – Responsible AI: Entwicklung ethischer KI-Anwendungen Mehr erfahren Data & AI – Datenqualität: Legen Sie die Datengrundlage für den Erfolg von KI Mehr erfahren Data & AI – Agentic AI: Risiken und Vorteile der Adaptiven AI Mehr erfahren
Banken & Finanzdienstleister – Open Banking: Wie Data Sharing Mehrwert für den Kunden kreiert Mehr erfahren
Data & AI – Hybride Unternehmen - Der Weg in eine neue Ära der Zusammenarbeit zwischen Mensch und Maschine Mehr erfahren