Ist das fair? Algorithmen und Asylsuchende

Der Krieg in der Ukraine macht Millionen Menschen zu Flüchtlingen. Auch der Berliner Hauptbahnhof ist für sie zu einer wichtigen Station geworden, sie fahren von dort mit dem Zug weiter, nehmen das Flugzeug oder bleiben in der Stadt. Dass Flüchtende ohne Visa in die EU einreisen und selbst entscheiden können, wo sie sich niederlassen, ist ein Ausnahmefall, betont Cathryn Costello, Professorin für Grundrechte an der Berliner Hertie School. Andere Geflüchtete, die als Asylbewerber:innen in der EU Schutz suchen, brauchen für die Einreise in der Regel ein Visum, das sie nur selten erhalten können.

Diesen Beitrag finden Sie auch in unserem Stiftungsmagazin "Impulse". Unter dem Titel "Was soll ich? Was darf ich?" stellt das Heft in seiner aktuellen Ausgabe die Frage nach Verantwortung und ethischer Orientierung in der Wissenschaft. Hier können Sie das Magazin kostenlos bestellen oder herunterladen.

In vielen Ländern Europas sind neue technische Methoden zur Steuerung von Flucht und Migration in der Diskussion – und teilweise bereits im Einsatz. Wie Algorithmen verwendet werden und welche Folgen das hat, will eine internationale Forschergruppe untersuchen. Ihr Projekt hat sie "Algorithmic Fairness for Asylum-Seekers and Refugees" betitelt. Im Mittelpunkt der Studie steht also die Frage, inwiefern diese Spezialform automatisierter Entscheidungsfindung zu Fairness beitragen kann. Beteiligt sind Rechts-, Sozial- und Datenwissenschaftler:innen der Hertie School, des European University Institute, Florenz, und der Universitäten in Kopenhagen, Zagreb und Oxford.

Fairness als ethischer Standard

Fairness ist ihr zentraler Terminus. "Wir starten nicht mit einem festgelegten Verständnis des Begriffs, sondern wollen diesen erst erarbeiten", stellt Cathryn Costello klar. "Der Begriff gibt uns einen ethischen Standard vor, um die Praktiken anzuschauen und normativ zu bewerten." Anders als im Strafrecht, wo es über verschiedene Rechtssysteme hinweg gemeinsame Vorstellungen von Fairness gebe, sei für den Bereich Asyl und Migration nicht genauer definiert, was etwa unter einem fairen Visasystem zu verstehen ist. 

Es gibt einige umstrittene Anwendungen

Prof. Dr. Cathryn Costello

Bislang sind Fragestellungen zu Algorithmen im Kontext von Flucht und Migration wissenschaftlich vernachlässigt worden, stellt die Projektleiterin fest. "Unser Ziel ist, ihre Potenziale zu erforschen, bevor sie allgegenwärtig werden." Das beginne mit einer Bestandsaufnahme, und da sei zu erkennen: "Es gibt einige umstrittene Anwendungen." In Großbritannien hat man mit einem Algorithmus gearbeitet, der zu einer diskriminierenden, an bestimmte Nationalitäten geknüpften Vergabe von Visa geführt habe. Die zivilgesellschaftlichen Organisationen "Joint Council for the Welfare of Immigrants" und "Foxglove" waren aufmerksam und erreichten die Beendigung der Anwendung.

Projektpartnerin Dr. Derya Ozkul vom Refugee Studies Centre an der Oxford University erläutert näher, wo und wie Algorithmen bereits getestet oder angewendet werden: zum Beispiel, um Visaanträge in einfache und komplizierte Kategorien zu unterteilen oder Asylantragsteller auf ihre Glaubwürdigkeit zu überprüfen. "Sie können genutzt werden, um den Dialekt der Sprache eines Antragstellers zu identifizieren und zu bewerten. Zum Beispiel kann bei einem syrischen Antragsteller damit geprüft werden, ob er tatsächlich den arabischen Dialekt spricht, der in Syrien üblich ist."

Anwendungen wie die Dialekterkennung und die Namenstranskription finden auch beim Bundesamt für Migration und Flüchtlinge (BAMF) in Deutschland schon statt. Und auch andere Länder wie die Niederlande orientieren sich daran und testen Anwendungen, die die Sprache von Antragstellenden überprüfen. In der Türkei wurde kürzlich ein Versuch durchgeführt, die Herkunft uigurischsprachiger Bewerber:innen zu hinterfragen.

Fotoprojekt "ARRIVING"

Wer entscheidet?

Unabhängig davon, was die Software vorschlägt, seien es letztlich immer noch die staatlichen Beamt:innen, die die Beurteilung vornähmen, betone das BAMF. "Wir Wissenschaftler: innen aber müssen untersuchen, inwieweit die Zuständigen tatsächlich die Entscheidung treffen oder nur dem zustimmen, was die Software vorgibt", so die Soziologin und Migrationsforscherin Ozkul. Costello und Ozkul haben beide bereits zu verschiedenen Praktiken bei der Anerkennung von Flüchtlingen und über Technologien der Identifikation und Grenzkontrolle gearbeitet. Derya Ozkul untersuchte etwa die Registrierungspraktiken des UN-Flüchtlingskommissariats und die Erfassung biometrischer Daten von Flüchtlingen im Libanon. "In Jordanien wird die Iris-Technologie sogar beim Einkaufen im Flüchtlingslager Zaatari eingesetzt", so Cathryn Costello.

Um Fairness in ethischer und rechtlicher Hinsicht besser zu verstehen, nimmt das internationale Projektteam drei Dimensionen in den Blick. Es geht den Wissenschaftler:innen zum einen um individuelle Fairness, die sich darin zeige, wie ein Asylantragsteller angehört und nach seinen Vorstellungen gefragt wird. Die zweite Dimension bezieht sich auf die gerechte Verteilung geflüchteter Männer, Frauen und Kinder – und damit auf die faire Aufteilung von Verantwortung und Lasten auf die Aufnahmeländer und -städte.

Wie ist die öffentliche Wahrnehmung?

Die dritte Perspektive gilt einerseits der individuellen, andererseits der gesellschaftlichen, öffentlichen Wahrnehmung von Fairness. Wie empfinden die Asylbewerber:innen und Flüchtlinge selbst den Prozess der Antragstellung? Wissen sie, ob dabei ein Algorithmus eingesetzt wurde und welche Auswirkung dieser hatte? Diesen Fragen wird Derya Ozkul in qualitativen Interviews mit Betroffenen nachgehen. Die öffentliche Wahrnehmung wollen die Forscher dagegen mit Hilfe einer breit angelegten Befragung in acht EU-Ländern untersuchen.

...die neuen Technologien sind häufig undurchsichtig und schwer zu erklären.

Prof. Dr. Cathryn Costello, PhD

Nicht nur für Laien ist kaum zu verstehen, wie Algorithmus-basierte Entscheidungen funktionieren, auch die zugrunde liegenden Daten und Kriterien sind wenig transparent. "Newtech, also die neuen Technologien, sind häufig undurchsichtig und schwer zu erklären", so Cathryn Costello. Ob dies zu einem Vertrauensverlust führe, hänge allerdings von der Rahmung ab. So werde ein Gesichts-Scan als Mittel zur Massenüberwachung angesehen und eher kritisch bewertet. Dagegen stießen Technologien, die von Einzelnen ausgehende Risiken identifizieren, auf größere öffentliche Zustimmung.

Mit Hilfe von Algorithmen wird in Pilotprojekten auch versucht, die Interessen der Antragstellenden mit denen der Aufnahmeorte in Einklang zu bringen. "Die Algorithmen sortieren die Flüchtlinge nach Fähigkeiten und Familienstand mit dem Ziel, ihre Chance zu erhöhen, eine Arbeit zu finden", sagt Cathryn Costello. Die Menschen würden aber nicht gefragt, wo sie wohnen wollen, obwohl die Technologie problemlos einen Abgleich der Präferenzen erlauben würde.

Die Vorteile der Anwendung von Algorithmen sieht die Juristin Costello so: "Bei komplexen Sachverhalten helfen sie, Entscheidungen schneller und effizienter zu treffen." Sind die eingespeisten Daten und Kriterien transparent, könnten sogar Vorurteile sichtbar gemacht werden, die normale Visavergabeverfahren beeinflussen. Ein Algorithmus sollte so konzipiert und angewendet werden, dass er Flüchtlingen eine große Wahlmöglichkeit einräumt. Damit entspräche er den in unserer Gesellschaft herrschenden Vorstellungen von Fairness und einem möglichst selbstbestimmten, freien Leben, betonen Costello und Ozkul.

Der Beitrag der Wissenschaft

Beide sind davon überzeugt, dass die Wissenschaft selbst einen Beitrag zu mehr Fairness in Flucht- und Migrationsprozessen leisten kann. Sie lehren beide an der University of Oxford, wo 1982 das weltweit erste "Refugees Studies Centre" gegründet wurde. "Es gibt hier eine lange Tradition von ethischer Reflexion über die Verpflichtungen und Aufgaben von Wissenschaftler: innen", sagt Cathryn Costello. Zum Beispiel, ob es eine Verpflichtung gibt, "mehr zu tun, als die Wahrheit herauszufinden, nämlich Ungerechtigkeiten entgegenzuwirken."

Um diskriminierende Praktiken zukünftig zu verhindern, müssen wir die Ergebnisse so weit zugänglich machen wie möglich.

Dr. Derya Ozkul

Costello selbst sieht ihre Hauptverantwortung darin, wertfrei zu forschen und neues Wissen beizusteuern. Aber natürlich sieht sie auch eine Verpflichtung der Forschenden den "Forschungssubjekten" gegenüber, denn: "Wir arbeiten ja mit den Geschichten, Lebenserfahrungen und Daten der Menschen." Und was tun, wenn man auf Ungerechtigkeiten stößt? Sie als Wissenschaftlerin könne zwar nicht die unmittelbaren Probleme von Flüchtlingen lösen, sagt Derya Ozkul: "Aber wir können die Ungerechtigkeiten und diskriminierenden Praktiken, auf die wir bei der Forschung stoßen, öffentlich machen."

Die Flucht- und Migrationsforschung könnte nach diesem Verständnis auch eine Mittlerposition zwischen den schutzsuchenden Menschen und den Organisationen der Zivilgesellschaft einnehmen. "In diesem Projekt wird es nicht ausreichen, wissenschaftliche Erkenntnisse zu veröffentlichen", ist Ozkul überzeugt. "Um diskriminierende Praktiken zukünftig zu verhindern, müssen wir die Ergebnisse so weit zugänglich machen wie möglich."

Die Flüchtenden aus der Ukraine werden den europäischen Umgang mit Flucht und Migration auf die Probe stellen, betont Cathryn Costello, und dies werde auch neue Perspektiven ermöglichen: "Wir können jetzt beobachten, ob es funktioniert, dass Menschen einfach dort hinziehen können, wo sie leben wollen."

Zum Projekt

Das Vorhaben "Algorithmic Fairness for Asylum-Seekers and Refugees" (AFAR) wird von der Stiftung im Rahmen der inzwischen modifizierten Initiative "Challenges for Europe" für vier Jahre gefördert.