Humanitäre Hilfe mit Technologie und KI im Fokus.

KI könnte humanitäre Antworten skalieren, birgt jedoch Risiken

Total
0
Shares

In den letzten Jahren hat die International Rescue Committee (IRC) angesichts dramatischer Anstiege bei der Zahl der Vertriebenen nach Effizienz gesucht, einschließlich der Nutzung von Künstlicher Intelligenz (KI). Die IRC hat seit 2015 in Signpost investiert, eine Sammlung von mobilen Apps und sozialen Medien, die Fragen in verschiedenen Sprachen für Menschen in gefährlichen Situationen beantworten. Das Projekt hat bisher 18 Millionen Menschen erreicht, aber die IRC möchte ihre Reichweite erheblich erhöhen, indem sie KI-Tools sicher einsetzt.

Konflikte, Klimanotfälle und wirtschaftliche Schwierigkeiten haben die Nachfrage nach humanitärer Hilfe erhöht, wobei laut dem UN-Flüchtlingshilfswerk im Jahr 2024 mehr als 117 Millionen Menschen gewaltsam vertrieben wurden. Der Einsatz von KI-Technologien wird teilweise durch die massive Kluft zwischen Bedürfnissen und Ressourcen vorangetrieben.

Um ihr Ziel zu erreichen, innerhalb von drei Jahren die Hälfte der Vertriebenen zu erreichen, testet die IRC ein Netzwerk von KI-Chatbots, um die Kapazität ihrer humanitären Mitarbeiter und der lokalen Organisationen, die direkt über Signpost helfen, zu erhöhen. Das Pilotprojekt läuft derzeit in El Salvador, Kenia, Griechenland und Italien und antwortet in 11 Sprachen. Es nutzt eine Kombination aus großen Sprachmodellen von führenden Technologieunternehmen wie OpenAI, Anthropic und Google.

Die Chatbot-Antwortsysteme verwenden auch Kundenservice-Software von Zendesk und erhalten Unterstützung von Google und Cisco Systems.

Wenn die IRC entscheidet, dass die Tools funktionieren, möchte sie die technische Infrastruktur kostenlos auf andere gemeinnützige humanitäre Organisationen ausweiten. Sie hoffen, gemeinsame technologische Ressourcen zu schaffen, die weniger technisch orientierte Organisationen nutzen können, ohne direkt mit Technologieunternehmen verhandeln oder die Risiken der Implementierung managen zu müssen.

„Wir versuchen, klar zu sein, wo die legitimen Bedenken liegen, aber auch die Optimismus der Möglichkeiten zu nutzen und nicht zuzulassen, dass die von uns bedienten Bevölkerungsgruppen in Lösungen zurückgelassen werden, die das Potenzial haben, in einem Maßstab zu skalieren, den menschliche Interaktion oder andere Technologien nicht erreichen können“, sagte Jeannie Annan, Chief Research and Innovation Officer der IRC.

Die Antworten und Informationen, die die Signpost-Chatbots liefern, werden von lokalen Organisationen überprüft, um sicherzustellen, dass sie aktuell und sensibel für die prekäre Situation der Menschen sind. Ein Beispiel für eine Anfrage, die die IRC geteilt hat, ist die einer Frau aus El Salvador, die mit ihrem Sohn durch Mexiko in die Vereinigten Staaten reist und nach Unterkünften und Dienstleistungen für ihr Kind sucht. Der Bot liefert eine Liste von Anbietern in der Nähe.

Komplexere oder sensiblere Anfragen werden an Menschen weitergeleitet.

Die wichtigsten potenziellen Nachteile dieser Tools wären, dass sie nicht funktionieren. Was ist, wenn sich die Situation vor Ort ändert und der Chatbot es nicht weiß? Er könnte Informationen bereitstellen, die nicht nur falsch, sondern auch gefährlich sind.

Ein weiteres Problem ist, dass diese Tools einen wertvollen Datenpool über gefährdete Personen ansammeln können, den feindliche Akteure angreifen könnten. Was passiert, wenn ein Hacker erfolgreich auf Daten mit persönlichen Informationen zugreift oder wenn diese Daten versehentlich mit einer unterdrückenden Regierung geteilt werden?

Die IRC hat mit den Technologieanbietern vereinbart, dass keines ihrer KI-Modelle mit den Daten trainiert wird, die die IRC, die lokalen Organisationen oder die Menschen, die sie bedienen, generieren. Sie haben auch daran gearbeitet, die Daten zu anonymisieren, einschließlich der Entfernung persönlicher Informationen und Standorte.

Im Rahmen des Signpost.AI-Projekts testet die IRC auch Tools wie einen digitalen automatisierten Tutor und Karten, die verschiedene Datentypen integrieren können, um auf Krisen vorzubereiten und zu reagieren.

Cathy Petrozzino, die für das gemeinnützige Forschungs- und Entwicklungsunternehmen MITRE arbeitet, sagte, dass KI-Tools ein hohes Potenzial, aber auch hohe Risiken haben. Um diese Tools verantwortungsbewusst zu nutzen, sollten Organisationen sich fragen: Funktioniert die Technologie? Ist sie fair? Sind Daten und Privatsphäre geschützt?

Sie betonte auch, dass Organisationen eine Vielzahl von Personen zusammenbringen sollten, um die Initiative zu steuern und zu gestalten – nicht nur technische Experten, sondern auch Personen mit tiefem Wissen über den Kontext, Rechtsexperten und Vertreter der Gruppen, die die Tools nutzen werden.

„Es gibt viele gute Modelle, die im KI-Friedhof liegen“, sagte sie, „weil sie nicht in Zusammenarbeit mit der Benutzer-Community entwickelt wurden.“

Für jedes System, das potenziell lebensverändernde Auswirkungen hat, sollten Gruppen externe Experten hinzuziehen, um ihre Methoden unabhängig zu bewerten. Die Designer von KI-Tools müssen die anderen Systeme berücksichtigen, mit denen sie interagieren werden, und sie müssen planen, das Modell im Laufe der Zeit zu überwachen.

Die Konsultation mit vertriebenen Personen oder anderen, die von humanitären Organisationen bedient werden, kann die Zeit und den Aufwand zur Gestaltung dieser Tools erhöhen, aber ohne deren Input entstehen viele Sicherheits- und ethische Probleme, sagte Helen McElhinney, Geschäftsführerin des CDAC-Netzwerks. Es kann auch lokales Wissen freisetzen.

Die Menschen, die Dienstleistungen von humanitären Organisationen erhalten, sollten informiert werden, wenn ein KI-Modell Informationen analysiert, die sie übergeben, selbst wenn die Absicht darin besteht, der Organisation zu helfen, besser zu reagieren. Das erfordert bedeutende und informierte Zustimmung, sagte sie. Sie sollten auch wissen, ob ein KI-Modell lebensverändernde Entscheidungen über die Ressourcenverteilung trifft und wo die Verantwortung für diese Entscheidungen liegt, fügte sie hinzu.

Degan Ali, CEO von Adeso, einer gemeinnützigen Organisation in Somalia und Kenia, hat sich lange für eine Veränderung der Machtverhältnisse in der internationalen Entwicklung eingesetzt, um lokalen Organisationen mehr Geld und Kontrolle zu geben. Sie fragte, wie die IRC und andere, die diese Technologien verfolgen, Zugangsprobleme überwinden würden, und verwies auf die wochenlangen Stromausfälle, die durch den Hurrikan Helene in den USA verursacht wurden. Chatbots helfen nicht, wenn es kein Gerät, kein Internet oder keinen Strom gibt, sagte sie.

Ali warnte auch, dass nur wenige lokale Organisationen die Kapazität haben, an großen humanitären Konferenzen teilzunehmen, bei denen die Ethik von KI diskutiert wird. Nur wenige haben Mitarbeiter, die sowohl senior genug als auch kompetent genug sind, um sich wirklich an diesen Diskussionen zu beteiligen, sagte sie, obwohl sie das potenzielle Macht- und Einfluss dieser Technologien verstehen.

„Wir müssen äußerst vorsichtig sein, um nicht Machtungleichgewichte und Vorurteile durch Technologie zu reproduzieren“, sagte Ali. „Die komplexesten Fragen werden immer lokale, kontextuelle und erlebte Erfahrungen erfordern, um sie sinnvoll zu beantworten.

Quellen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like