i2b express
03 | 2025
18/23
© Canva

Soziale Arbeit

Mensch statt Zahl

Gesundheitliche Risiken erkennen, schon Jahre bevor sich erste Symptome einstellen, das ist in der Medizin tatsächlich schon möglich – mit Hilfe von KI. Risiken frühzeitig in Betracht ziehen – funktioniert dies auch in der Sozialen Arbeit? Dieser Frage ist Daniel Telkmann, pädagogischer Leiter der Jugendstraffälligenhilfe beim Jugendhilfeträger JUS und Lehrbeauftragter an der Hochschule Bremen, nachgegangen. Kritisch äußert er sich dazu auch in den Bremer Schriften zu Sozialen Arbeit. „Reboot: social work. Inwieweit verändert sich die Funktionsbestimmung Sozialer Arbeit durch den Einsatz künstlicher Intelligenz?“

Prognose mit Verzerrungen

Schnell denkt man an Big Data, also das Sammeln von Daten aus unterschiedlichsten Quellen, um mögliche Trends und Prognosen für die Zukunft erstellen zu können. Was in China vielerorts gang und gäbe ist, wird auch in den USA zunehmend getestet. Beispielsweise bei der Polizei: Erstmals 2013 wurde „Predicitive Policing“ umgesetzt, um eine zeitliche Vorhersage von Straftaten in bestimmten Gebieten zu ermöglichen und dadurch gezielter Streife fahren zu können – insgesamt zwar ein gewisser Erfolg, aber mit starken Verzerrungen. „Noch problematischer sind personenbezogene Progonosetools: Sie können zu Vorverurteilung und damit zu Fehlschlüssen führen. In Deutschland werden solche Tools allerdings bislang nicht zur Prädikationsanalyse angewendet“, so Daniel Telkmann. In den USA schon – auch in der Kinder- und Jugendhilfe mit dem Fokus auf Problem- und Risikogruppen.

Zu viele Daten = falsche Schlüsse?

Das Allegheny Family Screening Tool (AFST) ein KI-basiertes Risikoprognosesystem, das in den USA die Einschätzung erleichtern soll, ob eine Meldung von mutmaßlicher Kindeswohlgefährdung ausreichend besorgniserregend ist, um eine nähere Untersuchung zu begründen – quasi als Ad-hoc-Entscheidungshilfe. Errechnet wird daher der numerische Wahrscheinlichkeitswert, welchem Risiko das betroffene Kind bei Verbleib in der Herkunftsfamilie ausgesetzt sein wird. Zwar soll die menschliche Entscheidungsfindung durch einen Algorithmus nicht ersetzt, sondern verbessert werden, doch ist dies immer möglich? Insbesondere in Stresssituationen oder bei geringer Berufserfahrung? Ein Beispiel: Einem offensichtlich missbrauchten Jungen wurde durch das Tool ein geringeres Gefährdungspotenzial zugesprochen als einem Kind, dem es zwar gut ging, das aber in aktuell eher ungewöhnlichen Umständen lebte, die man leicht mit Vernachlässigung in Verbindung bringen könnte. Da diese Familie seit vielen Jahren unterstützende Hilfen des Landkreises in Anspruch genommen hatte, lagen genau diese Daten vor, so dass die KI auf mehr Material zurückgreifen und dadurch ihre (falschen) Schlüsse ziehen konnte. Genauer betrachtet werden also diejenigen Menschen, die eher zur ärmeren Bevölkerung gehören und häufiger staatliche Unterstützungsprogramme wahrnehmen. Forschungsergebnisse zeigen: Die Kinder, die wirklich gefährdet sind aber aus wohlhabenderen Familien stammen, wurden oft nicht erkannt – während es im Umkehrschluss eine hohe Anzahl an Fehlalarmen bei den weniger begünstigten Personen gab.

Kritisch bleiben

„Die Lebenswelten und Problemlagen von Adressatinnen und Adressaten der Sozialen Arbeit sind ohne Frage eine vielschichtige und diffizile Angelegenheit, der in der Regel nicht immer mit schnellen Lösungsangeboten begegnet werden kann“, so Daniel Telkmann. Und: „Es ist wichtig für den Erhalt der Profession der Sozialen Arbeit, das kritische Denken beizubehalten und künstliche Intelligenz nicht automatisch als ein Garant für mehr Objektivität und Konsistenz zu betrachten, nur weil sie als zukunftsweisende Innovation verkauft wird und sich durch die Mathematik beziehungsweise Informatik legitimiert. Nicht alles ist Zahl. Soziale Arbeit setzt sich mit komplexen menschlichen Problemen auseinander, bei der Zahlen und quantitative Daten nur eine begrenzte Rolle spielen können.“ Vielmehr könnten personenbezogene Prognosetools dazu beitragen, soziale Ungleichheit zu zementieren, anstatt den eigentlichen Auftrag an die Sozialarbeit zu stützen: „Das Postulat einer helfenden Profession, die sich für die Stärkung der Autonomie und Selbstbestimmung von Minderheiten und Marginalisierten einsetzen sollte, statt sie zu kontrollieren und überwachen. Umso wichtiger ist es, den Einzug solcher Tools kritisch zu hinterfragen.“


Von Melanie Jülisch