Fraud-Studie von SAS und der ACFE


Acht von zehn Betrugsspezialisten planen Einsatz von Generative AI bis 2025
Unternehmen investieren in Technologie zur Betrugsbekämpfung – Umsetzung bleibt aber schleppend



Generative AI wird in den nächsten Jahren eine zentrale Rolle bei der Betrugsbekämpfung spielen. So planen 83 Prozent der befragten Experten, die Technologie innerhalb der nächsten zwei Jahre einzusetzen. Das geht aus dem 2024 Anti-Fraud Technology Benchmarking Report, einer neuen Studie der Association of Certified Fraud Examiners (ACFE) und SAS hervor.

Der Report ist der dritte Teil einer globalen Studie, die von der ACFE und SAS im Jahr 2019 initiiert wurde. Die neuesten Ergebnisse wurden auf Basis einer Ende 2023 global durchgeführten Umfrage unter knapp 1.200 Mitgliedern der ACFE ermittelt, die in insgesamt 23 verschiedenen Branchen tätig sind und zwischen 100 und mehr als 10.000 Mitarbeitende beschäftigen.

Analytics mit Generative AI: Große Euphorie, aber gebremstes Umsetzungstempo
Das Interesse an KI und Machine Learning (ML) ist größer denn je. 18 Prozent der Befragten setzen bereits Tools auf Basis beider Technologien ein. Weitere 32 Prozent rechnen mit einer Einführung innerhalb der nächsten zwei Jahre – ein neuer Spitzenwert seit Beginn der Erhebung. Bei diesem Tempo wird sich der Einsatz von KI und ML in Betrugsbekämpfungsprogrammen bis zum Ende des nächsten Jahres fast verdreifachen.

Die Ergebnisse zeigen allerdings auch, dass die tatsächliche Implementierungsrate beider Technologien immer noch hinter den Erwartungen zurückbleibt. So verzeichnet der Report bei der Einführung von KI- und ML-Lösungen zur Betrugserkennung und -prävention ein Wachstum von gerade einmal 5 Prozent im Vergleich zur ersten Erhebung 2019. Diese Zahl liegt weit unter den prognostizierten Werten, die in den Studien für 2019 (25 Prozent) und 2022 (26 Prozent) ermittelt wurden.

Finanzbranche ist Vorreiter bei Biometrie und Prozessautomatisierung
Während das Einführungstempo von KI und ML für Datenanalysen stagniert, werden beide Technologien in anderen Bereichen immer häufiger eingesetzt. So nutzen sie 40 Prozent der Studienteilnehmer für biometrische Lösungen, was einem Wachstum von 14 Prozent entspricht. Und jeder Fünfte gab an, KI und ML im Bereich Robotik zu nutzen, insbesondere für Robotic Process Automation (RPA) – das bedeutet ein Plus von 9 Prozent. Vorreiter bei der Verwendung in diesen beiden Bereichen ist der Bank- und Finanzdienstleistungssektor. Hier setzt die Hälfte (51 Prozent) auf Biometrie und ein Drittel (33 Prozent) auf RPA.

"Tools, die Generative AI nutzen, sind einfach zugänglich. Das macht sie in den falschen Händen so gefährlich", sagt ACFE-Präsident John Gill. "Drei von fünf Unternehmen planen, ihre Budgets für Technologie zur Betrugsbekämpfung innerhalb der nächsten zwei Jahre zu erhöhen. Die Art und Weise, wie sie diese Mittel investieren, wird darüber entscheiden, wer in einem technologischen ‚Wettrüsten‘ mit Kriminellen die Oberhand behält. Erschwert wird dieser Kampf für Unternehmen zusätzlich durch die Tatsache, dass sie, im Gegensatz zu Betrügern, beim Einsatz der Technologie ethische Standards erfüllen müssen."

"Die Diskrepanz zwischen dem starken Interesse an Advanced Analytics und den sehr niedrigen Einführungsraten belegt, wie komplex sich die Skalierbarkeit innerhalb des KI und Analytics Life Cycle darstellt", erklärt Stu Bradley, Senior Vice President of Risk, Fraud and Compliance Solutions bei SAS. "Darüber hinaus zeigt sich, wie wichtig es ist, den richtigen Technologiepartner zu wählen. KI und Machine Learning funktionieren zwar nicht nach dem Plug-and-Play-Prinzip, ihre Vorteile lassen sich aber besser nutzen, wenn modularisierte Lösungen für das gesamte Spektrum des Risikomanagements in einer einzigen, KI-gestützten Lösung eingesetzt werden. Genau das ist der Ansatz von SAS Viya als Cloud-native und offene Plattform." (SAS: ra)

eingetragen: 26.02.24
Newsletterlauf: 23.05.24

Delinea: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Studien

  • Viele Schulen regeln den KI-Einsatz nicht

    Um schneller einen Aufsatz zu schreiben, die Antwort im Unterricht nachzuschlagen oder Ideen für das Kunstprojekt zu sammeln - Künstliche Intelligenz ist längst auch in vielen deutschen Klassenzimmern angekommen. Allerdings hat nicht einmal jede vierte Schule zentral geregelt, was dabei erlaubt und was verboten ist. Lediglich an 23 Prozent der weiterführenden Schulen gibt es zentrale KI-Regeln, die für die ganze Schule gelten.

  • Ein Fünftel wurde im Job zu KI geschult

    Mit KI die Mail formulieren, eine Hintergrundrecherche starten oder aus Gesprächsnotizen ein Protokoll erstellen - Künstliche Intelligenz kann im Job unterstützen, wenn man weiß wie. Ein Fünftel (20 Prozent) der Berufstätigen wurde deshalb von ihrem Arbeitgeber bereits im KI-Einsatz geschult. Bei weiteren 6 Prozent gibt es zwar entsprechende Fortbildungen, sie haben sie aber noch nicht wahrgenommen. Der großen Mehrheit von 70 Prozent der Beschäftigten wird allerdings keine KI-Fortbildungen angeboten. Das sind Ergebnisse einer repräsentativen Befragung von 1.005 Personen ab 16 Jahren in Deutschland im Auftrag des Digitalverbands Bitkom.

  • Mindestens ein Datenschutzvorfall

    The Business Digital Index (BDI), eine Initiative von Cybernews, hat die digitale Sicherheit von 75 EU-Institutionen untersucht. Das Ergebnis ist besorgniserregend: 67 Prozent der untersuchten Einrichtungen erhielten die Noten "D" oder "F" und gelten damit als "hohes" oder "kritisches" Risiko.

  • Überwachung und Compliance stets im Fokus

    Mit der Einführung der elektronischen Patientenakte (ePA) setzt die Bundesregierung einen Meilenstein für die Zukunft der digitalen Gesundheitsversorgung. Ziel ist es, eine umfassende Datentransparenz - sowohl für Patienten als auch das medizinische Personal - zu schaffen, um die Qualität der Versorgung zu optimieren und Mitarbeitende im Healthcare-Sektor zu entlasten. Wie die Studie "Digitale Zwickmühle im Gesundheitswesen: Zwischen Innovationsdruck und Systemrisiken" von Soti jedoch zeigt, mangelt es in vielen deutschen Gesundheitseinrichtungen noch immer an den nötigen technischen Voraussetzungen, um diesem Anspruch in der Praxis auch wirklich gerecht zu werden. Für diese Erhebung wurden weltweit IT-Entscheidungsträger im Healthcare-Bereich befragt.

  • Haftungsrisiko bei Cyber-Schäden

    Führungskräfte in Deutschland blicken mit wachsender Sorge auf ihr Haftungsrisiko bei Cyber-Schäden - für 88 Prozent sind Cyber-Attacken und für 86 Prozent Datenverluste das Top-Risiko für Manager 2025. Das zeigt der aktuelle "Directors' and Officers' Liability Survey" des Risikoberaters und Großmaklers Willis, einem Geschäftsbereich von WTW, und der internationalen Anwaltssozietät Clyde & Co. Außerdem zeigt die Studie, dass vielen Themen im Management Board nicht genug Zeit eingeräumt wird: 38 Prozent der befragten Führungskräfte in Deutschland sind der Meinung, dass im Vorstands- und Geschäftsführungskreis mehr Zeit für das Thema Cybersicherheit aufgewendet werden sollte. "Das ist ein deutliches Signal dafür, dass viele Unternehmen sich der Bedrohung zwar bewusst sind, sich ihr aber noch nicht ausreichend widmen", sagt Lukas Nazaruk, Head of Corporate Risk & Broking Deutschland und Österreich bei Willis.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen