Warum die Bekämpfung von Verzerrungen beim maschinellen Lernen der Schlüssel zur Erschließung einer größeren finanziellen Inklusion ist

"Finanzielle Eingliederung bedeutet, dass Einzelpersonen und Unternehmen Zugang zu nützlichen und erschwinglichen Finanzprodukten und -dienstleistungen haben, die ihren Bedürfnissen entsprechen - Transaktionen, Zahlungen, Ersparnisse, Kredite und Versicherungen -, die auf verantwortungsvolle und nachhaltige Weise bereitgestellt werden." - Weltbank

Unsere Mission bei JUMO ist es, die finanzielle Inklusion radikal voranzutreiben, indem wir die Lücke zwischen kritischen Finanzdienstleistungen und denen, die sie am dringendsten benötigen, schließen. Unsere Kunden sind Unternehmer, Kleinunternehmen und Gewerbetreibende in Schwellenländern, die keine traditionelle Finanzgeschichte haben und daher vom Mainstream-Banken-Ökosystem ausgeschlossen sind.

Da jedoch Milliarden von Menschen in Schwellenländern zum ersten Mal online gehen, die meisten davon über Mobiltelefone, haben wir jetzt die Möglichkeit, neue Formen digitaler und finanzieller Identitäten zu entwickeln, die neue finanzielle Möglichkeiten schaffen.

Das zu tun ist schwer. Es erfordert, unstrukturierte Daten auf eine Weise zu verstehen, die für Menschen einfach nicht manuell möglich ist. Stattdessen verwendet JUMO Methoden des maschinellen Lernens (ML) und der künstlichen Intelligenz (AI), mit denen das Risiko eines Kunden genauer modelliert und mit geeigneten finanziellen Entscheidungen verknüpft werden kann. Mit diesem Ansatz können wir Millionen von zuvor ausgeschlossenen Menschen erreichen, aber es wird viel mehr Arbeit erfordern.

Finanzielle Ausgrenzung ist nicht einfach. Kulturelle, geschlechtsspezifische und soziale Nuancen gelten für Märkte und Länder und erhöhen die Komplexität aller globalen Bemühungen zur Verringerung der Armut. Das bedeutet, dass jede singuläre, algorithmische Herangehensweise an das Problem wahrscheinlich zu unbeabsichtigten Verzerrungen neigt. Um dies zu mildern, ist es wichtig, nicht intuitive soziokulturelle Faktoren einzubeziehen, die nur für die Gruppe von Personen gelten, auf deren Daten wir zugreifen.

Betrachten Sie einen Landwirt in der Landwirtschaft kurz vor einer erwarteten Dürre. Bei einem traditionellen Kreditmodell steigen ihr Risikoprofil - und damit die Kreditpreise - ebenso wie die Finanzierung und der Ernteertrag. Wenn der Landwirt über das traditionelle Kreditrisikomodell auf einen Kredit zugreifen würde, würde er eine höhere Rückzahlungslast tragen, was die Wahrscheinlichkeit eines Ausfalls erhöht, sodass sich das Modell als richtig erwiesen hat. Dies ist eine deutliche Erinnerung an die realen Auswirkungen algorithmischer Entscheidungen.

Einfach ausgedrückt: Es gibt einen besseren Weg, um mit dieser Situation umzugehen.

Was ist, wenn wir die Dürre genau vorhersagen, den Preis des Kredits senken und dem Landwirt helfen, diese schwierige Zeit zu überstehen? Dies würde die Wahrscheinlichkeit erhöhen, dass sich der Landwirt für ein Darlehen zu einem Zinssatz qualifiziert, der angemessen zurückgezahlt werden kann, was das Ausfallrisiko verringert.

Während wir daran arbeiten, den finanziellen Zugang zu erweitern, müssen wir auch weiterhin über die von uns verwendeten Daten, die von uns angewendeten maschinellen Lernprozesse und die Auswirkungen auf diese Märkte nachdenken. Wir haben uns kürzlich darauf konzentriert, unseren Ansatz zur Verzerrung unserer Modellierungs- und Entscheidungsprozesse zu optimieren. Durch diese Arbeit haben wir einen Rahmen entwickelt, den wir kontinuierlich auf das anwenden, was wir tun. Dieser Rahmen kann für andere nützlich sein, die hoffen, unbeabsichtigte Verzerrungen in anderen Modellen abzumildern.

Messung von Auswirkungen und Marginalisierung

Die Herausforderung der finanziellen Ausgrenzung ist groß, weshalb globale Organisationen wie die Vereinten Nationen mit Unternehmen zusammenarbeiten, um das Problem anzugehen. Um ein Problem zu lösen, müssen Sie natürlich zuerst seine Größe verstehen.

Eine perfekte Einbeziehung würde bedeuten, dass wir die finanziellen Möglichkeiten auf 100% der „guten“ Kunden ausweiten - mit anderen Worten auf Kunden, die beabsichtigen und die Möglichkeit haben, ihre Kredite zurückzuzahlen. Bei JUMO messen wir uns daran, inwieweit diese theoretisch „guten“ Kunden über unsere Plattform auf Finanzprodukte lokaler Banken zugreifen können. Um unsere Auswirkungen zu testen, zielen wir auf eine repräsentative Stichprobe von ansonsten abgelehnten Kunden ab, die oft als Ablehnungsstichprobe bezeichnet wird, um einen oberen Schwellenwert für die perfekte finanzielle Inklusion zu quantifizieren.

Durch die kontinuierliche Abfrage der Benutzerdaten erhalten wir Zugriff auf einen Fluss unvoreingenommener Informationen, mit denen wir historische Verzerrungen (die sich aus historischen Entscheidungen ergeben) minimieren und die unbeabsichtigten Folgen eines ungenauen Ausschlusses von Personen vermeiden können. Es ist jedoch wichtig, dass dieser Messprozess regelmäßig und kontinuierlich abläuft. Es stellt sicher, dass unser Geschäft mit unserer Gesamtmission in Einklang bleibt, und vermeidet die Bewertung von Kunden auf der Grundlage der unbeabsichtigten Verzerrung, die in das System eingedrungen ist.

Bessere Daten bedeuten bessere Vorhersagen

Es ist wichtig zu bedenken, dass das Ergebnis eines maschinellen Lernmodells nur so gut ist wie die enthaltenen Daten. Wir wissen beispielsweise, dass ein überproportionaler Prozentsatz unserer Plattformbenutzer männlich ist (70% gegenüber 30% weiblichen Kunden). Wenn wir unsere Daten jedoch mit anderen Forschungsergebnissen kombinieren, stellen wir fest, dass Frauen nur 10% weniger wahrscheinlich als Männer ein Mobiltelefon besitzen und das Geschlecht eine weniger wichtige Rolle bei der Aufnahme und Nutzung von digitalem Geld spielt.

Warum wurden Frauen unbeabsichtigt ausgegrenzt?

Um dieses Problem zu verstehen, mussten wir uns fragen: Welche anderen Informationen könnten wir verwenden, um aktuelle Datensätze zu ergänzen, die uns helfen würden, zwischen Personen in einer scheinbar homogenen Gruppe zu unterscheiden?

In diesem Fall wurde davon ausgegangen, dass Frauen in einigen Märkten weniger häufig Mobiltelefone und Geldbörsen verwenden als Männer. Dies ist größtenteils auf soziokulturelle Faktoren zurückzuführen, darunter mangelndes Vertrauen in Mobile Banking oder unerschwingliche Transaktionsgebühren. Indem wir die Erkenntnisse aus diesen Daten nutzen und sie unterschiedlich auf Frauen anwenden, können wir geeignetere Risikokriterien entwickeln, die die Chancengleichheit verbessern können.

ML und Intuition für reale Anwendungen

In der Technologiebranche betrachten wir die Welt oft durch Daten - Einsen und Nullen. Wir ignorieren die menschlichen Auswirkungen unserer Arbeit. Um echte Fortschritte bei der Weiterentwicklung der Vorhersagemethoden zu erzielen, benötigen wir Algorithmen und Intuition. Wir müssen über das Kurzfristige hinausblicken, die falsch positiven und falsch negativen Ergebnisse abwägen und Produkte entwickeln, die für Menschen geeignet sind.

Kein Modell kann sich mit jahrzehntelanger Komplexität oder dem Reichtum menschlicher sozialer Netzwerke und ihren zugrunde liegenden subtilen Unterschieden befassen. Um voranzukommen, müssen wir das traditionelle Denken und unser eigenes Denken kontinuierlich herausfordern.

Bei Krediten, die seit Jahrzehnten weitgehend unverändert bleiben, birgt die Art und Weise, wie wir Risiken betrachten und bewerten, ein großes Potenzial für Fortschritte. Maschinelles Lernen kann und wird eine transformative Rolle in unseren Bemühungen spielen, daher sind wir veranlasst, über die Vorteile nachzudenken. Gleichzeitig erkennen wir die Risiken. Aus diesem Grund konzentrieren wir uns auf die Verwendung von KI, um die Verzerrung bei der finanziellen Entscheidungsfindung zu verringern, während wir wissen, dass eine schlechte Anwendung genau den gegenteiligen Effekt haben kann.

Ein mitfühlender Ansatz zur finanziellen Eingliederung?

Durch diesen Ansatz erkennen wir die Notwendigkeit eines sich entwickelnden Kriterienkatalogs an, der die Fähigkeit des Einzelnen maximiert, sein Potenzial auszudrücken. Auf diese Weise können wir endlich die direkte Verbindung zwischen Kredit-Scores und Vermögen aufheben, indem wir einen nicht einseitigen Ansatz zur Risikobewertung verwenden. Dies bedeutet, dass ein Händler in Kampala, der 100 USD Betriebskapital aufnimmt, und ein Händler, der 10.000 USD in Sacramento leiht, anhand der für jeden Einzelnen am besten geeigneten Kriterien für die Risikobewertung bewertet werden, was eine Welt der finanziellen Wahl eröffnet.

Die unbeabsichtigten Konsequenzen und Verzerrungen, die sich aus Entscheidungen ergeben, an denen häufig ML beteiligt ist, sind nicht nur ein Ergebnis des Algorithmus oder des Modellierungsprozesses, sondern betreffen alle akkumulierten Berührungspunkte, die zum Endergebnis führen. Um Voreingenommenheit anzugehen, können Sie die Symptome nicht einfach beobachten und korrigieren. Sie müssen den End-to-End-Prozess verstehen und das gesamte System analysieren, um die Grundursache zu ermitteln. Sobald Sie dies getan haben, müssen Sie es weiter tun - kontinuierlich testen, lernen und optimieren, um Verzerrungen aus Ihren Modellen zu entfernen.

Letztendlich kann dies dazu beitragen, Technologien einfühlsam einzusetzen, um die finanzielle Inklusion zu erweitern und zu vertiefen.

Andrew Watkins-Ball ist der Gründer und CEO von JUMO, der größten und am schnellsten wachsenden Technologieplattform für den Betrieb integrativer Marktplätze für mobile Finanzdienstleistungen in Schwellenländern. JUMO arbeitet mit zukunftsorientierten Banken und Mobilfunknetzbetreibern zusammen, um Verbraucher und kleine Unternehmen mit finanziellen Möglichkeiten zu verbinden. JUMO kombiniert Daten und Technologie, um Produkte zu liefern, die so konzipiert sind, dass sie 80% der Weltbevölkerung erreichen und anpassen, die von traditionellen Finanzdienstleistungen (unter) bedient werden.

Mehrere Mitglieder des JUMO-Teams haben zu dieser Arbeit beigetragen, darunter Ricki Davimes, Anthony la Grange, Clarissa Johnston, Ben Gidlow, Natu Lauchande, Niklas von Maltzahn und Paul Whelpton.