KI: Die Zukunft im Rückspiegel
Dr. Scott Zoldi von Fico stellt eigene KI-Vorhersagen für 2022 auf den Prüfstand
Zoldi: "Meiner Meinung nach wird risikoreiche KI noch nicht in großem Umfang eingesetzt, und die KI-Verordnung der EU schießt gewissermaßen über das Ziel hinaus"
Dr. Scott Zoldi, Chief Analytics Officer bei Fico, wagt jedes Jahr einen Ausblick auf die kommenden Trends im Bereich Künstlicher Intelligenz (KI). In seinen für 2022 getroffenen Vorhersagen standen für ihn ganz klar die Themen "Nachvollziehbare KI" (Auditable AI) und "Bescheidene KI" (Humble AI) auf der Agenda der Data Scientists. Dabei geht es um KI, die in der Lage ist, jedes Detail über sich selbst zu protokollieren – und damit erklärbar (= nachvollziehbar) wird – sowie um KI, die weiß, dass sie sich der richtigen Antwort nicht absolut sicher sein kann (= Humble AI). Beide Ansätze sind ein wichtiges Novum in der Data Science Welt und komplettieren den übergeordneten Bereich der sogenannten verantwortungsvollen KI. Aber wo stehen wir jetzt? Lassen wir Dr. Scott Zoldi zu Wort kommen:
Vorhersage für 2022: Auditierbare KI-Methoden werden häufiger zum Einsatz kommen
Wo stehen wir jetzt: Auditierbare oder auch interpretierbare Machine Learning-Modelle sind ein wichtiger Baustein von "Auditable AI", doch zunächst interessierte sich nur eine kleine Gruppe Spezialisten für interpretierbares Machine Learning. In den letzten Monaten wurde das Thema jedoch auch von führenden Data-Science-Experten aufgegriffen. Die Vorteile interpretierbarer KI werden mittlerweile offensichtlich erkannt und in der Praxis genutzt – beispielsweise immer häufiger beim Thema Kreditvergabe. Es ist schön zu sehen, dass in diesem, von vielen als risikoreich angesehenen Bereich interpretierbare KI dazu genutzt wird, um mehr Transparenz und Fairness zu erreichen. Das ist ein großer Verdienst von erklärbarer KI. Interpretierbare Modelle können Verzerrungen aufdecken, aufzeichnen und überwachen – und nehmen sich selbst dabei nicht aus: Die KI prüft nämlich auch, ob die Modelle selbst frei von Bias aufgesetzt wurden und arbeiten.
Vorhersage für 2022: Data Scientists werden wegweisend bei der Einführung von "Bescheidener KI" sein
Wo stehen wir jetzt: Ein großer Schritt in Richtung "Bescheidene KI" ist das Machine Learning-Modell Operationalization Management (MLOps). Neben einer proaktiven und kontinuierlichen Modellüberwachung verfolgen MLOps das Konzept, dass nicht zwischen der Entwicklung und der praktischen Nutzung eines Machine Learning-Modells unterschieden werden soll. In der Vergangenheit handelte es sich hier in der Regel um zwei unterschiedliche Phasen, die oft Wochen oder Monate auseinander lagen.
Im Regulierungsumfeld wird dagegen eine engere Verzahnung erwartet. Durch eine kontinuierliche Modellüberwachung läuten frühzeitig die Alarmglocken, wenn die Annahmen, auf denen das Modell aufbaut, verletzt werden. Ganz im Gegensatz also zu der Vorstellung, dass der User blind und naiv jedes Ergebnis der KI akzeptieren würde. Genau darum geht es bei "Bescheidener KI". Das MLOps-Modell zeigt, wie relevant dieses Thema heutzutage ist und wie wichtig Initiativen von Data Scientists sind, um die Ziele der bescheidenen KI zu erreichen.
Vorhersage für 2022: An KI-Transparenz und "Ethics by Design" kommt keiner mehr vorbei
Wo stehen wir jetzt: Ich habe viel über die Empfehlungen der IEEE 7000-Norm gebloggt, die im Wesentlichen besagt: "Erstellen Sie Modelle, mit denen Sie zuverlässig kommunizieren und für die Sie Erklärungen liefern können – und das bei ausreichender Transparenz." Dieser Gedanke gewinnt immer mehr an Bedeutung, da die Regulierung von KI zunehmend in den Fokus rückt. Das Brookings Institute sagt zum Beispiel, dass das KI-Gesetz der Europäischen Union (englisch AIA) "das erste umfassende Regulierungssystem für künstliche Intelligenz schaffen will, aber seine Auswirkungen nicht an den Grenzen der EU Halt machen werden. Einige EU-Politiker halten es sogar für ein entscheidendes Ziel des AIA, einen weltweiten Standard zu setzen, so dass manche von einem Wettlauf um die Regulierung von KI sprechen."
Meiner Meinung nach wird risikoreiche KI noch nicht in großem Umfang eingesetzt, und die KI-Verordnung der EU schießt gewissermaßen über das Ziel hinaus. Die Absicht ist gut, aber nicht jede KI ist risikoreich. Insbesondere interpretierbares Machine Learning ist in der Lage zu spezifizieren, was die Ergebnisse beeinflusst. Es bleibt zu hoffen, dass sich die Überreaktion der Regulierungsbehörden auf die KI im weiteren Jahresverlauf in Grenzen halten wird. Mein Ansatz ist es, einen Mittelweg zu finden, indem sich Nutzer sorgfältig und verantwortungsvoll für einen Algorithmus entscheiden, der nach ethischen Gesichtspunkten entwickelt wurde. Auch während der Anwendung ist es wichtig, das Modell immer wieder kritisch zu hinterfragen. Denn, um es mit den Worten des bekannten Statistikers George Box zu sagen: "Im Grunde genommen sind alle Modelle falsch, aber einige sind nützlich".
Fazit:
Rückblickend zeigt sich, dass der Ausblick von Dr. Scott Zoldi auf 2022 sehr präzise war. Der verantwortungsvolle Umgang mit Künstlicher Intelligenz rückt zunehmend in den Vordergrund und entwickelt sich langsam zu einem Selbstverständnis in der Data Science Welt.
Über Scott Zoldi
Dr. Scott Zoldi ist Chief Analytics Officer bei Fico und verantwortlich für die analytische Entwicklung der Produkt- und Technologielösungen von Fico. Während seiner Tätigkeit im Unternehmen war Scott Zoldi bisher für die Entwicklung von mehr als 100 Analytics-Patenten verantwortlich, von denen 65 erteilt und 45 eingereicht wurden. Scott Zoldi ist Mitglied in den beiden Vorständen von Software San Diego und Cyber Center of Excellence. Er hat seinen Doktortitel in theoretischer und rechnergestützter Physik an der Duke University erworben.
(Fico: ra)
eingetragen: 27.09.22
Newsletterlauf: 28.11.22
Fico: Kontakt und Steckbrief
Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.
Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>