Wie digitale Souveränität KI in der Sozialen Arbeit wirksam macht

Philipp Engelsberg • 22. Februar 2026

Warum digitale Souveränität wichtiger ist als der nächste KI-Hype in der Sozialen Arbeit

Theorie und Praxis könnten aktuell kaum weiter auseinanderklaffen: Während in der Fachliteratur bereits die Transformation der Profession diskutiert und auf Leitungsebene eifrig mit den neuesten KI-Modellen experimentiert wird, sieht die harte Realität an der Basis völlig anders aus. Hier kämpfen die Einrichtungen noch mit fehlenden Regulierungen, ungleichen Kompetenzen und veralteten Prozessstrukturen. Anstatt von innovativer Entlastung zu profitieren, schlagen sich Fachkräfte täglich mit unstrukturierten Daten, dysfunktionaler Hardware und schwerfälligen Systemen herum, die den Arbeitsalltag eher belasten als erleichtern – und auf dem Flur rattert auch gerne mal noch das Faxgerät.  

Diese scharfe Diskrepanz zwischen strategischer Euphorie und operativer Realität macht eines unmissverständlich deutlich: Der bloße, unreflektierte Einsatz von KI wird die grundlegenden strukturellen Lücken in der Digitalisierung des Sozialwesens nicht schließen. Oft übernehmen soziale Organisationen neue Technologien aus der reinen Unsicherheit heraus, den Anschluss nicht zu verpassen.  

In der Organisationssoziologie wird dieses Verhalten als mimetischer Isomorphismus beschrieben:  
Man ahmt die vermeintlich erfolgreichen Strategien anderer nach und führt hastig Software ein, vergisst aber, die eigenen analogen Prozesse und Datensilos kritisch zu hinterfragen. Doch eine bloße Nachahmung führt ins Leere. KI-Sprachmodelle entfalten ihr Potenzial erst dann, wenn sie auf saubere, gut strukturierte Abläufe treffen und wenn vorher klar ist: Was wollen wir damit eigentlich erreichen? Wenn wir versuchen, den massiven Fachkräftemangel zu lindern, indem wir hochkomplexe KI auf kaputte IT-Infrastrukturen aufsetzen, kaschieren wir das Problem nur kurzfristig. Was die Sozialwirtschaft stattdessen dringend braucht, ist echte digitale Souveränität. 


Die digitale Kluft in der Sozialen Arbeit

Digitale Souveränität bedeutet, Technologien nicht passiv über sich ergehen zu lassen, sondern sie aktiv, selbstbestimmt und vor allem werteorientiert zu gestalten. Um dorthin zu gelangen, müssen wir das Ausprobieren wieder in den Mittelpunkt stellen. Der digitale Wandel löst bei vielen Fachkräften berechtigte Unsicherheiten aus, zumal digitale und datenethische Kompetenzen in den Hochschulcurricula bisher oft nur am Rande behandelt werden (wenn überhaupt). Wir müssen daher sichere Räume schaffen, in denen Sozialarbeiter:innen und weitere Berufsgruppen der Sozialen Arbeit neue Werkzeuge testen, hinterfragen und an ihre spezifischen lebensweltorientierten Anforderungen anpassen können. 


Produkte müssen auf die individuellen Herausforderungen skalierbar sein, die der Beruf mit sich bringt. KI darf fachliche Dokumentationsrealitäten nicht normativ beschneiden oder inhaltlich umdeuten. Technik darf nicht von oben herab diktiert werden; sie muss im pädagogischen und beratenden Alltag erprobt und verstanden werden, um Unsicherheiten in echte digitale Kompetenz zu verwandeln. 


Für die Profession der Sozialen Arbeit ist eine nachhaltige Entwicklung und Einführung elementar. Es darf bei Anbietern nicht um den schnellen Taler gehen – um den reinen Verkauf von Lizenzen an Organisationen, die im Digitalisierungsdruck nach dem rettenden Strohhalm greifen. Vielmehr geht es um echte, langfristige Veränderung. Eine Software ist immer nur so gut wie die Menschen, die sie bedienen und in ihre fachlichen Reflexionsprozesse einbinden. 

Entwicklungspartnerschaft mit Sozial KI: Kompetenz langfristig aufbauen

Aus diesem Grund haben wir bei Sozial KI einen Weg gewählt, der konsequent auf Befähigung statt auf bloße Implementierung setzt. Wir verstehen uns nicht als externe Berater:innen, die kurzfristige Lösungen installieren und wieder verschwinden.


Unser Ziel ist es, das Notwendige direkt in den Einrichtungen aufzubauen. Deshalb bieten wir Organisationen eine sechsmonatige Entwicklungspartnerschaft an: Bei regulären Lizenzkosten für unsere Plattform SoKI erhalten unsere Partner in dieser Zeit einen engmaschigen, kostenfreien Support. Wir begleiten die Fachkräfte dabei, die KI auszuprobieren, sie auf ihre individuellen Bedürfnisse anzupassen und ein tiefes Verständnis für die Technologie zu entwickeln. Dieser Ansatz ist aufwendig – aber wir sind überzeugt, dass nachhaltige Kompetenzentwicklung wichtiger ist als schnelle Implementierung.



Nur wenn wir die Digitalisierung von der Basis aus stärken und auf langfristigen Kompetenzaufbau setzen, wird KI zu dem, was sie sein sollte: Eine sichere und fachlich kontrollierbare Entlastung. 


Anmerkung zur Begrifflichkeit: Aus Gründen der besseren Lesbarkeit und der allgemeinen Zugänglichkeit verwenden wir in diesem Blogbeitrag den übergeordneten Begriff „Künstliche Intelligenz (KI)“. Im fachlichen Kontext der aktuellen Entwicklungen in der Sozialen Arbeit sowie bezüglich unserer Software (SoKI) beziehen wir uns damit primär auf Large Language Models (LLMs) bzw. generative KI-Sprachmodelle. 



Quellenbezug im Text:

  • Matthies, A., Sailer, J., Tetens, J., & Wahren, J. (2026). Large Language Models in der Sozialen Arbeit: Nutzung, Perspektiven und Rahmenbedingungen - Ergebnisse der DIGITASA-Befragung 2025. 
  • Plafky, C. S., & Badertscher, H. (2025). Künstliche Intelligenz in der Sozialen Arbeit: Potenziale, Herausforderungen und Ethik im digitalen Zeitalter. Springer VS. 


Spielecontroller verbunden mit dem SoKI-Logo
von Theodor Schöwitz 29. Dezember 2025
Gamifizierung nutzt spielerische Elemente, um die Motivation für Aufgaben zu steigern, die im Alltag oft als langweilig, anstrengend oder wenig attraktiv empfunden werden. Durch Belohnungssysteme, interaktive Szenarien oder narrative Strukturen können auch komplexe oder unangenehme Tätigkeiten ansprechender gestaltet werden. Ein ungewöhnliches, aber eindrucksvolles Beispiel ist der Dating-Simulator „Tax Heaven 3000“ des Spielestudios MSCHF. Hier wird die Erstellung einer US-Steuererklärung in ein romantisches Spiel integriert: Ein virtueller Partner stellt im Rahmen einer Liebesgeschichte immer persönlichere Fragen - darunter auch solche zu finanziellen Verhältnissen, die für die Steuererklärung relevant sind. Obwohl das Spiel ein kreatives Paradebeispiel für Gamification (Gamifizierung) ist, steht es in der Kritik, da es klischeehafte und sexualisierte Darstellungen weiblicher Figuren reproduziert und damit problematische Rollenbilder verstärkt.
Die Werte von Sozial KI
von Theodor Schöwitz 8. Dezember 2025
Die Idee zu Sozial-KI entstand im Sommer 2024 im Rahmen des Studiengangs „Digitalisierung in der Sozialen Arbeit“ an der DHBW CAS in Heilbronn. Während der Vorlesungen wurde zunehmend klar, dass Sprachmodelle das Potenzial haben, das Sozialwesen grundlegend zu verändern. Ein großer Teil der Arbeitszeit in diesem Bereich besteht aus schriftlichen Tätigkeiten - von Falldokumentationen und Berichten bis hin zur Korrespondenz mit Klient:innen und Kooperationspartner:innen. Sprachmodelle können solche Aufgaben teilweise übernehmen und damit Fachkräfte entlasten, sodass mehr Zeit für die direkte Interaktion mit den Klient:innen bleibt. Erste Tests mit anonymisierten Beispielen aus der Praxis bestätigten diese Annahme: KI-Modelle wie ChatGPT eignen sich tatsächlich, um zeitaufwendige Schreibarbeiten vorbereitend zu unterstützen. Allerdings stellten sich schnell zentrale Probleme heraus - der sichere Umgang mit hochsensiblen Sozialdaten sowie die Verarbeitung von tabuisierten Inhalten wie Gewalt und Sexualität. Die gängigen KI-Lösungen großer US-Anbieter kamen aufgrund von Datenschutzbedenken nicht infrage, und bestehende Alternativen boten entweder unzureichenden Schutz oder zu wenig Funktionalität für den produktiven Einsatz. Da keine passende Lösung auf dem Markt verfügbar war, die sowohl den besonderen Anforderungen des Sozialwesens als auch den hohen Standards an Datensouveränität gerecht wurde, beschlossen wir, selbst einen Prototypen zu entwickeln. Dabei flossen von Anfang an ethische und technische Ansätze ein, die Datensicherheit, Unabhängigkeit und die spezifischen Bedürfnisse sozialer Einrichtungen berücksichtigen. Unser Ziel war es, eine Lösung zu schaffen, die nicht nur funktional, sondern auch werteorientiert ist - ganz im Sinne der Prinzipien, die uns im Studium vermittelt wurden .
Fähigkeiten von AI / KI Systemen Infographic
von Theodor Schöwitz 5. November 2025
Die Entwicklung von KI- Sprachmodellen schreitet rasant voran, doch nicht jedes System ist für jeden Anwendungsbereich gleichermaßen geeignet. Während einige Modelle besonders stark in der logischen Analyse, der mathematischen Problemlösung oder der Generierung technischer Texte sind, zeigen andere ihre Stärken in der Verarbeitung komplexer sozialer Kontexte. Für Fachkräfte der Sozialen Arbeit, die KI als Assistenzsystem nutzen - etwa zur Berichterstellung, Fallanalyse oder Dokumentationsunterstützung - kommt es daher weniger auf allgemeine Leistungsmerkmale an, sondern auf spezifische Fähigkeiten, die den Besonderheiten sozialer Arbeitsfelder gerecht werden. Während ein Sprachmodell, das gute Ergebnisse in Physik oder Programmierung liefert, für technische Berufe wertvoll sein mag, sind solche Kompetenzen in der Sozialen Arbeit von geringer Bedeutung. Hier steht stattdessen die Fähigkeit, sensible Inhalte präzise zu erfassen, ethisch verantwortungsvoll zu verarbeiten und in einer Weise aufzubereiten, die den professionellen Standards der Branche entspricht. Entscheidend ist daher nicht, was ein KI-Modell prinzipiell leisten kann, sondern wie es mit den Herausforderungen sozialer Arbeit umgeht - von der Emotionserkennung in Klient:innenäußerungen bis hin zur unverfälschten Dokumentation von beispielsweise gewaltgeprägten oder traumatischen Erlebnisse. In diesem Blogeintrag gehen wir beispielhaft auf ein paar für die Verarbeitung von Inhalten aus sozialen Kontexten wichtige KI-Fähigkeiten ein, ohne diese Liste abzuschließen. Über die hier erwähnten Fähigkeiten hinaus gibt es eine vielzahl von weiteren messbaren KI-Fähigkeiten, die je nach Aufgabenbereich des KI-Modells für die Qualität und Zuverlässigkeit der Ergebnisse ausschlaggebend sind. Emotionale Intelligenz und kontextsensible Verarbeitung Eine der zentralen Anforderungen an KI-Systeme in der Sozialen Arbeit ist die Fähigkeit, emotionale und soziale Informationen in Texten zu erkennen und angemessen zu verarbeiten. Fachkräfte sind täglich mit Aussagen konfrontiert, die zwischen den Zeilen Hilfebedarfe transportieren. Ein Sprachmodell, das solche subtilen Signale übergeht oder falsch interpretiert, wäre in der Praxis je nach konkretem Anwendungsfall nicht nur unbrauchbar, sondern potenziell schädlich. Gute Modelle für den sozialen Kontext zeichnen sich daher durch eine ausgeprägte emotionale Intelligenz aus. Ein Modell, das etwa in der Lage ist, zwischen einer sachlichen Schilderung und einer emotional aufgeladenen Erzählung zu unterscheiden, ermöglicht es Sozialarbeiter:innen, ihre Dokumentation präziser und bedarfsgerechter zu gestalten. Eine Möglichkeit, die emotionale Intelligenz verschiedener KI-Modelle besser abzuschätzen stellt die Sprachmodell-Rangliste EQ-Bench zur Verfügung. Gute Nachrichten für Kunden von Sozial KI : das zum Zeitpunkt dieses Blogeintrags am höchsten bewertete open-weights Modell “Kimi K2” steht in SoKI oder per API zur Verfügung. Unzensierte Verarbeitung sensibler Inhalte: Warum beispielsweise „UGI / OR-Bench“ und „IFEval“ für die Soziale Arbeit und das Sozialwesen entscheidend sind Ein weiteres kritisches Kriterium ist der Umgang mit hochsensiblen, oft tabuisierten Themen wie häuslicher Gewalt, sexualisierter Gewalt oder extremistischen Inhalten. Viele Standard-KI-Modelle sind mit Filtermechanismen ausgestattet, die bestimmte Inhalte aus ethischen oder rechtlichen Gründen zensieren oder umgehen. Während dies in öffentlichen Chat-Anwendungen sinnvoll sein mag, wird es in der Sozialen Arbeit schnell zum Problem: Wenn ein Modell etwa Schilderungen von Missbrauchserfahrungen ausblendet, verharmlost oder durch Platzhalter ersetzt, verliert die Falldokumentation ihre Aussagekraft - mit potenziell schwerwiegenden Folgen für die Einschätzung von Gefährdungslagen oder der Planung von Interventionsstrategien. Hier kommen spezielle Ansätze wie Uncensored General Intelligence oder Over-Refusal (UGI/OR-Bench) oder Instruction-Following Evaluation (IFEval) ins Spiel: UGI-Modelle sind darauf trainiert, auch explizite, gewaltbezogene oder traumatische Inhalte unverfälscht zu verarbeiten - während starke Modelle im OR-Bench auf fehlerhafte Ablehnung harmloser Inhalte hin gemessen werden. IFEval wiederum misst die Fähigkeit eines Modells, komplexe Anweisungen präzise umzusetzen, ohne in vordefinierte Antwortmuster zu verfallen. Für Fachkräfte bedeutet dies, dass sie das System gezielter steuern können. Ein konkretes Beispiel: Die Fachkraft dokumentiert ein Gespräch mit einer Jugendlichen, die von sexualisierter Gewalt in der Familie berichtet mithilfe von KI. Ein ungeeignetes KI-Modell könnte diese Passagen ausfiltern oder mit vagen Formulierungen ersetzen. Ein für diesen Kontext geeignetes System hingegen erfasst die Schilderungen vollständig und stellt sicher, dass keine relevanten Informationen verloren gehen. Fazit: Tests und Aufbau von Know-How Die Wahl des richtigen KI-Assistenzsystems bzw. der ihm zugrunde liegenden KI-Modelle in der Sozialen Arbeit hängt weniger von dessen allgemeiner Leistungsfähigkeit ab, sondern davon, wie gut es die spezifischen Anforderungen des Feldes erfüllt. Fachkräfte, die KI als Werkzeug nutzen möchten, sollten daher nicht nur auf die Größe des Modells oder seine Performance in allgemeinen Benchmark-Tests achten, sondern darauf, ob es in der Lage ist, die Komplexität der konkreten Anwendungsfälle zu verarbeiten - ohne die Inhalte zu verzerren oder zu vereinfachen. Hierfür ist es unumgänglich, relevante Fähigkeiten für geplante Einsatzbereiche im Bezug auf unterschiedliche KI-Modelle vorab ausführlich zu testen und zu evaluieren. Letztlich geht es nicht darum, menschliche Expertise durch KI zu ersetzen, sondern sie durch ein System zu unterstützen, das die Besonderheiten sozialer Arbeit verarbeiten kann: ihre Ambivalenzen, ihre Dilemmata und die Notwendigkeit, auch die Inhalte zu verarbeiten, die an anderen Stellen unausgesprochen bleiben.
von Niclas Höhl 22. Oktober 2025
Sozialwirtschaftliche Organisationen, die Künstliche Intelligenz in ihre Arbeitsprozesse integrieren möchten, stehen häufig vor der Frage, ob und wie diese Technologie datenschutzkonform eingesetzt werden kann. Gerade im sozialen Bereich werden besonders sensible personenbezogene Daten von Schutzbefohlenen verarbeitet. Solche Informationen erfordern einen besonders sorgfältigen Umgang. Für soziale Träger hat der Schutz dieser Daten höchste Priorität – sowohl aus ethischer Verantwortung als auch wegen der möglichen Sanktionen bei Datenschutzverstößen. Hohe Sicherheits- und Datenschutzstandards sind daher unverzichtbar, um die Anforderungen der EU-Datenschutz-Grundverordnung (DSGVO) zu erfüllen. Ein Risiko, das vielen Organisationen bislang kaum bewusst ist, ist der Einfluss des US CLOUD Act. Dieses Gesetz kann selbst dann Auswirkungen auf den Datenschutz haben, wenn Daten ausschließlich auf europäischen Servern gespeichert werden. Der US CLOUD Act Der Clarifying Lawful Overseas Use of Data Act, kurz Cloud Act, wurde 2018 in den USA verabschiedet. Sein Ziel: US-Behörden den Zugriff auf Daten zu erleichtern, selbst wenn diese auf Servern außerhalb der USA gespeichert sind. Das bedeutet: Wenn ein sozialer Träger sensible personenbezogene Daten auf Servern von Microsoft oder OpenAI verarbeitet, auch wenn die Server physisch in der EU liegen, können US-Behörden dennoch auf diese Daten zugreifen. Für europäische soziale Organisationen hat das weitreichende Folgen. Denn sobald Sozialdaten über Systeme laufen, die US-Unternehmen gehören oder von ihnen betrieben werden, kann nicht mehr garantiert werden, dass auf sie nicht unrechtmäßig zugegriffen oder sie in ein Drittland übermittelt werden . Beides würde eklatante Datenschutzverstöße darstellen. Wie Sozial KI das Problem adressiert Sozial KI wurde mit dem Ziel gegründet, KI-Technologien so zu gestalten, dass sie uneingeschränkt datenschutzkonform in der Sozialwirtschaft eingesetzt werden können. Wir denken, dass die Potentiale für große Sprachmodelle in der Sozialen Arbeit enorm sind. Arbeitserleichterungen sollten jedoch nicht auf Kosten der Datensicherheit unser Adressat:innen erfolgen. Daher haben wir unsere Infrastruktur so aufgebaut, dass der US Cloud Act kein Risiko darstellt. Konkret bedeutet das: Sorgfältig ausgewählte, ausschließlich europäische Partnerunternehmen mit europäischen Serverstandorten. Damit ist sichergestellt, dass keine Daten dem Geltungsbereich des US Cloud Act oder vergleichbarer außereuropäischer Gesetze unterliegen. Durch diesen klaren geografischen und rechtlichen Rahmen bietet Sozial KI eine sichere Grundlage für den Einsatz von KI in der Sozialwirtschaft.