Was KI-Sprachmodelle für die Soziale Arbeit und das Sozialwesen können müssen
Eine beispielhafte Erkundung von für soziale Arbeitsfelder relevante KI-Fähigkeiten
Während ein Sprachmodell, das gute Ergebnisse in Physik oder Programmierung liefert, für technische Berufe wertvoll sein mag, sind solche Kompetenzen in der Sozialen Arbeit von geringer Bedeutung. Hier steht stattdessen die Fähigkeit, sensible Inhalte präzise zu erfassen, ethisch verantwortungsvoll zu verarbeiten und in einer Weise aufzubereiten, die den professionellen Standards der Branche entspricht. Entscheidend ist daher nicht, was ein KI-Modell prinzipiell leisten kann, sondern wie es mit den Herausforderungen sozialer Arbeit umgeht - von der Emotionserkennung in Klient:innenäußerungen bis hin zur unverfälschten Dokumentation von beispielsweise gewaltgeprägten oder traumatischen Erlebnisse. In diesem Blogeintrag gehen wir beispielhaft auf ein paar für die Verarbeitung von Inhalten aus sozialen Kontexten wichtige KI-Fähigkeiten ein, ohne diese Liste abzuschließen. Über die hier erwähnten Fähigkeiten hinaus gibt es eine vielzahl von weiteren messbaren KI-Fähigkeiten, die je nach Aufgabenbereich des KI-Modells für die Qualität und Zuverlässigkeit der Ergebnisse ausschlaggebend sind.
Emotionale Intelligenz und kontextsensible Verarbeitung
Eine der zentralen Anforderungen an KI-Systeme in der Sozialen Arbeit ist die Fähigkeit, emotionale und soziale Informationen in Texten zu erkennen und angemessen zu verarbeiten. Fachkräfte sind täglich mit Aussagen konfrontiert, die zwischen den Zeilen Hilfebedarfe transportieren. Ein Sprachmodell, das solche subtilen Signale übergeht oder falsch interpretiert, wäre in der Praxis je nach konkretem Anwendungsfall nicht nur unbrauchbar, sondern potenziell schädlich.
Gute Modelle für den sozialen Kontext zeichnen sich daher durch eine ausgeprägte emotionale Intelligenz aus. Ein Modell, das etwa in der Lage ist, zwischen einer sachlichen Schilderung und einer emotional aufgeladenen Erzählung zu unterscheiden, ermöglicht es Sozialarbeiter:innen, ihre Dokumentation präziser und bedarfsgerechter zu gestalten. Eine Möglichkeit, die emotionale Intelligenz verschiedener KI-Modelle besser abzuschätzen stellt die Sprachmodell-Rangliste EQ-Bench zur Verfügung.
Gute Nachrichten für Kunden von Sozial KI: das zum Zeitpunkt dieses Blogeintrags am höchsten bewertete open-weights Modell “Kimi K2” steht in SoKI oder per API zur Verfügung.
Unzensierte Verarbeitung sensibler Inhalte: Warum beispielsweise „UGI / OR-Bench“ und „IFEval“ für die Soziale Arbeit und das Sozialwesen entscheidend sind
Unzensierte Verarbeitung sensibler Inhalte: Warum beispielsweise „UGI / OR-Bench“ und „IFEval“ für die Soziale Arbeit und das Sozialwesen entscheidend sind
Ein weiteres kritisches Kriterium ist der Umgang mit hochsensiblen, oft tabuisierten Themen wie häuslicher Gewalt, sexualisierter Gewalt oder extremistischen Inhalten. Viele Standard-KI-Modelle sind mit Filtermechanismen ausgestattet, die bestimmte Inhalte aus ethischen oder rechtlichen Gründen zensieren oder umgehen. Während dies in öffentlichen Chat-Anwendungen sinnvoll sein mag, wird es in der Sozialen Arbeit schnell zum Problem: Wenn ein Modell etwa Schilderungen von Missbrauchserfahrungen ausblendet, verharmlost oder durch Platzhalter ersetzt, verliert die Falldokumentation ihre Aussagekraft - mit potenziell schwerwiegenden Folgen für die Einschätzung von Gefährdungslagen oder der Planung von Interventionsstrategien.
Hier kommen spezielle Ansätze wie Uncensored General Intelligence oder Over-Refusal (UGI/OR-Bench) oder Instruction-Following Evaluation (IFEval) ins Spiel:
UGI-Modelle sind darauf trainiert, auch explizite, gewaltbezogene oder traumatische Inhalte unverfälscht zu verarbeiten - während starke Modelle im OR-Bench auf fehlerhafte Ablehnung harmloser Inhalte hin gemessen werden.
IFEval wiederum misst die Fähigkeit eines Modells, komplexe Anweisungen präzise umzusetzen, ohne in vordefinierte Antwortmuster zu verfallen. Für Fachkräfte bedeutet dies, dass sie das System gezielter steuern können.
Ein konkretes Beispiel: Die Fachkraft dokumentiert ein Gespräch mit einer Jugendlichen, die von sexualisierter Gewalt in der Familie berichtet mithilfe von KI. Ein ungeeignetes KI-Modell könnte diese Passagen ausfiltern oder mit vagen Formulierungen ersetzen. Ein für diesen Kontext geeignetes System hingegen erfasst die Schilderungen vollständig und stellt sicher, dass keine relevanten Informationen verloren gehen.
Fazit: Tests und Aufbau von Know-How
Fazit: Tests und Aufbau von Know-How
Die Wahl des richtigen KI-Assistenzsystems bzw. der ihm zugrunde liegenden KI-Modelle in der Sozialen Arbeit hängt weniger von dessen allgemeiner Leistungsfähigkeit ab, sondern davon, wie gut es die spezifischen Anforderungen des Feldes erfüllt. Fachkräfte, die KI als Werkzeug nutzen möchten, sollten daher nicht nur auf die Größe des Modells oder seine Performance in allgemeinen Benchmark-Tests achten, sondern darauf, ob es in der Lage ist, die Komplexität der konkreten Anwendungsfälle zu verarbeiten - ohne die Inhalte zu verzerren oder zu vereinfachen. Hierfür ist es unumgänglich, relevante Fähigkeiten für geplante Einsatzbereiche im Bezug auf unterschiedliche KI-Modelle vorab ausführlich zu testen und zu evaluieren.
Letztlich geht es nicht darum, menschliche Expertise durch KI zu ersetzen, sondern sie durch ein System zu unterstützen, das die Besonderheiten sozialer Arbeit verarbeiten kann: ihre Ambivalenzen, ihre Dilemmata und die Notwendigkeit, auch die Inhalte zu verarbeiten, die an anderen Stellen unausgesprochen bleiben.



