Warum die Beseitigung von Verzerrungen beim maschinellen Lernen der Schlüssel zur Erschließung einer größeren finanziellen Inklusion ist

„Finanzielle Inklusion bedeutet, dass Einzelpersonen und Unternehmen Zugang zu nützlichen und erschwinglichen Finanzprodukten und -dienstleistungen haben, die ihren Bedürfnissen entsprechen - Transaktionen, Zahlungen, Ersparnisse, Kredite und Versicherungen - und auf verantwortungsvolle und nachhaltige Weise erbracht werden.“ - Weltbank

Unsere Mission bei JUMO ist es, die finanzielle Inklusion radikal voranzutreiben, indem wir die Lücke zwischen kritischen Finanzdienstleistungen und denjenigen, die sie am dringendsten benötigen, schließen. Unsere Kunden sind Unternehmer, Kleinunternehmen und Gewerbetreibende in aufstrebenden Märkten, die keine traditionelle Finanzgeschichte haben und daher vom Mainstream-Bankensystem ausgeschlossen sind.

Aber mit Milliarden von Menschen in Schwellenländern, die zum ersten Mal online gehen, die meisten davon über Mobiltelefone, haben wir jetzt die Möglichkeit, neue Formen digitaler und finanzieller Identitäten zu entwickeln, die neue finanzielle Möglichkeiten schaffen.

Das zu tun ist schwer. Es erfordert, unstrukturierte Daten auf eine Weise zu verstehen, die für den Menschen einfach nicht manuell möglich ist. Stattdessen verwendet JUMO Methoden des maschinellen Lernens (ML) und der künstlichen Intelligenz (AI), mit denen das Risiko eines Kunden genauer modelliert und mit geeigneten finanziellen Entscheidungen verknüpft werden kann. Mit diesem Ansatz können wir Millionen von zuvor ausgegrenzten Menschen erreichen, aber es wird viel mehr Arbeit erforderlich sein.

Finanzieller Ausschluss ist nicht einfach. Kulturelle, geschlechtsspezifische und soziale Nuancen gelten für alle Märkte und Länder und verleihen jedem globalen Bemühen um Armutsbekämpfung eine zusätzliche Komplexität. Dies bedeutet, dass jeder singuläre, algorithmische Ansatz für das Problem wahrscheinlich zu unbeabsichtigten Verzerrungen neigt. Um dies zu mildern, ist es wichtig, nicht-intuitive soziokulturelle Faktoren einzubeziehen, die nur für die Gruppe von Personen gelten, auf deren Daten wir zugreifen.

Betrachten Sie einen Landwirt in der Landwirtschaft kurz vor einer erwarteten Dürre. Bei einem traditionellen Kreditmodell steigt das Risikoprofil - und damit die Kreditpreise - ebenso wie die Finanzierung und der Ernteertrag. Wenn der Landwirt über das traditionelle Kreditrisikomodell auf einen Kredit zugreifen würde, wäre die Rückzahlungslast höher und die Ausfallwahrscheinlichkeit höher, sodass sich das Modell als richtig herausstellt. Dies ist eine deutliche Erinnerung an die realen Auswirkungen der algorithmischen Entscheidungsfindung.

Einfach ausgedrückt: Es gibt einen besseren Weg, um mit dieser Situation umzugehen.

Was ist, wenn wir die Dürre genau vorhersagen, den Darlehenspreis senken und dem Landwirt helfen, diese schwierige Zeit zu überstehen? Dies würde die Wahrscheinlichkeit erhöhen, dass sich der Landwirt für ein Darlehen zu einem angemessenen Rückzahlungssatz qualifiziert, was das Ausfallrisiko verringert.

Daher ist es wichtig, dass wir bei der Ausweitung des finanziellen Zugangs auch weiterhin über die von uns verwendeten Daten, die von uns angewendeten maschinellen Lernprozesse und deren Auswirkungen auf diese Märkte nachdenken. Wir haben uns kürzlich auf die Optimierung unseres Ansatzes zur Verzerrung in unseren Modellierungs- und Entscheidungsprozessen konzentriert. Durch diese Arbeit haben wir ein Framework entwickelt, das wir kontinuierlich auf das anwenden, was wir tun. Dieser Rahmen kann für andere nützlich sein, die hoffen, unbeabsichtigte Verzerrungen in anderen Modellen zu mildern.

Wirkungsmessung und Marginalisierung

Die Herausforderung der finanziellen Ausgrenzung ist gewaltig, weshalb globale Organisationen wie die Vereinten Nationen gemeinsam mit Unternehmen daran arbeiten, das Problem anzugehen. Um ein Problem zu lösen, muss man natürlich zuerst seine Größe verstehen.

Eine perfekte Einbeziehung würde bedeuten, dass wir die finanziellen Möglichkeiten auf 100% der „guten“ Kunden ausdehnen - mit anderen Worten auf Kunden, die beabsichtigen und die die Möglichkeit haben, ihre Kredite zurückzuzahlen. Bei JUMO messen wir uns daran, inwieweit diese theoretisch „guten“ Kunden über unsere Plattform auf Finanzprodukte lokaler Banken zugreifen können. Um unsere Auswirkungen zu testen, zielen wir auf eine repräsentative Stichprobe von ansonsten abgelehnten Kunden ab, die oft als Ablehnungsstichprobe bezeichnet wird, um einen oberen Schwellenwert für die perfekte finanzielle Inklusion zu bestimmen.

Wenn wir die Benutzerdaten kontinuierlich abfragen, erhalten wir Zugang zu einem Fluss unvoreingenommener Informationen, mit denen wir historische Verzerrungen (die durch historische Entscheidungen entstehen) minimieren und die unbeabsichtigten Folgen einer unkorrekten Ausgrenzung von Personen vermeiden können. Es ist jedoch wichtig, dass dieser Messprozess regelmäßig und kontinuierlich ist. Es stellt sicher, dass unser Geschäft mit unserer Gesamtmission in Einklang bleibt, und vermeidet es, Kunden auf der Grundlage der unbeabsichtigten Tendenz zu bewerten, die in das System eingegangen ist.

Bessere Daten bedeuten bessere Vorhersagen

Es ist wichtig, sich daran zu erinnern, dass das Ergebnis eines maschinellen Lernmodells nur so gut ist wie die darin enthaltenen Daten. Zum Beispiel wissen wir, dass ein überproportionaler Prozentsatz unserer Plattformnutzer männlich ist (70% im Vergleich zu 30% weiblichen Kunden). Wenn wir unsere Daten jedoch mit anderen Untersuchungen kombinieren, stellen wir fest, dass Frauen nur 10% seltener als Männer ein Mobiltelefon besitzen und das Geschlecht eine geringere Rolle bei der Inanspruchnahme und Nutzung von digitalem Geld spielt.

Warum wurden Frauen unbeabsichtigt an den Rand gedrängt?

Um dieses Problem zu verstehen, mussten wir uns fragen: Welche anderen Informationen könnten wir verwenden, um aktuelle Datensätze zu ergänzen, die uns helfen würden, zwischen Individuen in einer scheinbar homogenen Gruppe zu unterscheiden?

In diesem Fall ging man davon aus, dass Frauen in einigen Märkten weniger häufig Mobiltelefone und Brieftaschen verwenden als Männer. Dies hängt hauptsächlich mit soziokulturellen Faktoren zusammen, darunter mangelndes Vertrauen in Mobile Banking oder unerschwingliche Transaktionsgebühren. Indem wir die Erkenntnisse aus diesen Daten ziehen und sie differenziert auf Frauen anwenden, können wir geeignetere Risikokriterien entwickeln, die die Chancengleichheit erhöhen können.

ML und Intuition für reale Anwendungen

In der Technologiebranche sehen wir die Welt oft anhand von Daten - Einsen und Nullen. Wir ignorieren die menschlichen Auswirkungen unserer Arbeit. Um Fortschritte bei der Weiterentwicklung von Vorhersagemethoden zu erzielen, benötigen wir Algorithmen und Intuition. Wir müssen über das Kurzfristige hinausblicken, falsche Positive und falsche Negative gegeneinander abwägen und Produkte herstellen, die für Menschen geeignet sind.

Kein Modell kann sich mit jahrzehntelanger Komplexität oder dem Reichtum menschlicher sozialer Netzwerke und ihren subtilen Unterschieden befassen. Um voranzukommen, müssen wir das traditionelle Denken und unser eigenes Denken ständig in Frage stellen.

Bei Krediten, die seit Jahrzehnten weitgehend unverändert sind, birgt die Art und Weise, wie wir Risiken betrachten und bewerten, ein großes Potenzial für Fortschritte. Maschinelles Lernen kann und wird bei unseren Bemühungen eine transformative Rolle spielen. Daher sind wir veranlasst, über das Positive nachzudenken. Gleichzeitig erkennen wir die Risiken. Aus diesem Grund konzentrieren wir uns auf die Verwendung von KI, um Verzerrungen bei der finanziellen Entscheidungsfindung zu verringern, und wissen, dass eine schlechte Anwendung genau den gegenteiligen Effekt haben kann.

Ein mitfühlender Ansatz zur finanziellen Eingliederung?

Mit diesem Ansatz erkennen wir die Notwendigkeit eines sich entwickelnden Kriterienkatalogs an, der die Fähigkeit des Einzelnen maximiert, sein Potenzial auszudrücken. Auf diese Weise können wir endlich die direkte Verbindung zwischen Kredit-Scores und Vermögen aufheben, indem wir einen nicht einseitigen Ansatz zur Risikobewertung verwenden. Dies bedeutet, dass ein Händler in Kampala, der 100 US-Dollar Betriebskapital nimmt, und ein Händler, der 10.000 US-Dollar in Sacramento leiht, anhand der für jeden Einzelnen am besten geeigneten Risikobewertungskriterien bewertet werden, was eine Welt der finanziellen Wahl eröffnet.

Die unbeabsichtigten Konsequenzen und Verzerrungen, die sich aus Entscheidungen ergeben, an denen häufig ML beteiligt ist, sind nicht nur eine Folge des Algorithmus oder des Modellierungsprozesses, sondern betreffen alle akkumulierten Berührungspunkte, die zum Endergebnis führen. Um Voreingenommenheit zu bekämpfen, können Sie die Symptome nicht einfach beobachten und korrigieren. Sie müssen den End-to-End-Prozess verstehen und das gesamte System analysieren, um die Ursache zu ermitteln. Sobald Sie dies getan haben, müssen Sie es weiter tun - kontinuierlich testen, lernen und optimieren, um Verzerrungen von Ihren Modellen zu entfernen.

Letztendlich kann dies dazu beitragen, Technologien einfühlsam einzusetzen, um die finanzielle Inklusion zu erweitern und zu vertiefen.

Andrew Watkins-Ball ist Gründer und CEO von JUMO, der größten und am schnellsten wachsenden Technologieplattform für den Betrieb von Marktplätzen für inklusive mobile Finanzdienstleistungen in aufstrebenden Märkten. JUMO arbeitet mit zukunftsorientierten Banken und Mobilfunknetzbetreibern zusammen, um Kunden und kleine Unternehmen mit finanziellen Möglichkeiten zu verbinden. JUMO kombiniert Daten und Technologie, um Produkte zu liefern, die so konzipiert sind, dass sie 80% der Weltbevölkerung erreichen und diese bedienen, die nicht von traditionellen Finanzdienstleistungen bedient werden.

Zu dieser Arbeit haben mehrere Mitglieder des JUMO-Teams beigetragen, darunter Ricki Davimes, Anthony La Grange, Clarissa Johnston, Ben Gidlow, Natu Lauchande, Niklas von Maltzahn und Paul Whelpton.