Wie digitale Souveränität KI (Künstliche Intelligenz) in der Sozialen Arbeit wirksam macht

Philipp Engelsberg • 22. Februar 2026

Warum digitale Souveränität wichtiger ist als der nächste KI-Hype in der Sozialen Arbeit

Theorie und Praxis könnten aktuell kaum weiter auseinanderklaffen: Während in der Fachliteratur bereits die Transformation der Profession diskutiert und auf Leitungsebene eifrig mit den neuesten KI-Modellen experimentiert wird, sieht die harte Realität an der Basis völlig anders aus. Hier kämpfen die Einrichtungen noch mit fehlenden Regulierungen, ungleichen Kompetenzen und veralteten Prozessstrukturen. Anstatt von innovativer Entlastung zu profitieren, schlagen sich Fachkräfte täglich mit unstrukturierten Daten, dysfunktionaler Hardware und schwerfälligen Systemen herum, die den Arbeitsalltag eher belasten als erleichtern – und auf dem Flur rattert auch gerne mal noch das Faxgerät.  

Diese scharfe Diskrepanz zwischen strategischer Euphorie und operativer Realität macht eines unmissverständlich deutlich: Der bloße, unreflektierte Einsatz von KI wird die grundlegenden strukturellen Lücken in der Digitalisierung des Sozialwesens nicht schließen. Oft übernehmen soziale Organisationen neue Technologien aus der reinen Unsicherheit heraus, den Anschluss nicht zu verpassen.  

In der Organisationssoziologie wird dieses Verhalten als mimetischer Isomorphismus beschrieben:  
Man ahmt die vermeintlich erfolgreichen Strategien anderer nach und führt hastig Software ein, vergisst aber, die eigenen analogen Prozesse und Datensilos kritisch zu hinterfragen. Doch eine bloße Nachahmung führt ins Leere. KI-Sprachmodelle entfalten ihr Potenzial erst dann, wenn sie auf saubere, gut strukturierte Abläufe treffen und wenn vorher klar ist: Was wollen wir damit eigentlich erreichen? Wenn wir versuchen, den massiven Fachkräftemangel zu lindern, indem wir hochkomplexe KI auf kaputte IT-Infrastrukturen aufsetzen, kaschieren wir das Problem nur kurzfristig. Was die Sozialwirtschaft stattdessen dringend braucht, ist echte digitale Souveränität. 


Die digitale Kluft in der Sozialen Arbeit

Digitale Souveränität bedeutet, Technologien nicht passiv über sich ergehen zu lassen, sondern sie aktiv, selbstbestimmt und vor allem werteorientiert zu gestalten. Um dorthin zu gelangen, müssen wir das Ausprobieren wieder in den Mittelpunkt stellen. Der digitale Wandel löst bei vielen Fachkräften berechtigte Unsicherheiten aus, zumal digitale und datenethische Kompetenzen in den Hochschulcurricula bisher oft nur am Rande behandelt werden (wenn überhaupt). Wir müssen daher sichere Räume schaffen, in denen Sozialarbeiter:innen und weitere Berufsgruppen der Sozialen Arbeit neue Werkzeuge testen, hinterfragen und an ihre spezifischen lebensweltorientierten Anforderungen anpassen können. 


Produkte müssen auf die individuellen Herausforderungen skalierbar sein, die der Beruf mit sich bringt. KI darf fachliche Dokumentationsrealitäten nicht normativ beschneiden oder inhaltlich umdeuten. Technik darf nicht von oben herab diktiert werden; sie muss im pädagogischen und beratenden Alltag erprobt und verstanden werden, um Unsicherheiten in echte digitale Kompetenz zu verwandeln. 


Für die Profession der Sozialen Arbeit ist eine nachhaltige Entwicklung und Einführung elementar. Es darf bei Anbietern nicht um den schnellen Taler gehen – um den reinen Verkauf von Lizenzen an Organisationen, die im Digitalisierungsdruck nach dem rettenden Strohhalm greifen. Vielmehr geht es um echte, langfristige Veränderung. Eine Software ist immer nur so gut wie die Menschen, die sie bedienen und in ihre fachlichen Reflexionsprozesse einbinden. 

Entwicklungspartnerschaft mit Sozial KI: Kompetenz langfristig aufbauen

Aus diesem Grund haben wir bei Sozial KI einen Weg gewählt, der konsequent auf Befähigung statt auf bloße Implementierung setzt. Wir verstehen uns nicht als externe Berater:innen, die kurzfristige Lösungen installieren und wieder verschwinden.


Unser Ziel ist es, das Notwendige direkt in den Einrichtungen aufzubauen. Deshalb bieten wir Organisationen eine sechsmonatige Entwicklungspartnerschaft an: Bei regulären Lizenzkosten für unsere Plattform SoKI erhalten unsere Partner in dieser Zeit einen engmaschigen, kostenfreien Support. Wir begleiten die Fachkräfte dabei, die KI auszuprobieren, sie auf ihre individuellen Bedürfnisse anzupassen und ein tiefes Verständnis für die Technologie zu entwickeln. Dieser Ansatz ist aufwendig – aber wir sind überzeugt, dass nachhaltige Kompetenzentwicklung wichtiger ist als schnelle Implementierung.



Nur wenn wir die Digitalisierung von der Basis aus stärken und auf langfristigen Kompetenzaufbau setzen, wird KI zu dem, was sie sein sollte: Eine sichere und fachlich kontrollierbare Entlastung. 


Anmerkung zur Begrifflichkeit: Aus Gründen der besseren Lesbarkeit und der allgemeinen Zugänglichkeit verwenden wir in diesem Blogbeitrag den übergeordneten Begriff „Künstliche Intelligenz (KI)“. Im fachlichen Kontext der aktuellen Entwicklungen in der Sozialen Arbeit sowie bezüglich unserer Software (SoKI) beziehen wir uns damit primär auf Large Language Models (LLMs) bzw. generative KI-Sprachmodelle. 



Quellenbezug im Text:

  • Matthies, A., Sailer, J., Tetens, J., & Wahren, J. (2026). Large Language Models in der Sozialen Arbeit: Nutzung, Perspektiven und Rahmenbedingungen - Ergebnisse der DIGITASA-Befragung 2025. 
  • Plafky, C. S., & Badertscher, H. (2025). Künstliche Intelligenz in der Sozialen Arbeit: Potenziale, Herausforderungen und Ethik im digitalen Zeitalter. Springer VS. 


Theodor Schöwitz (links), Niclas Höhl (mitte), Philipp Engelsberg (rechts)
von Philipp Engelsberg, Theodor Schöwitz, Niclas Höhl 6. April 2026
Wie kann KI Fachkräfte in der Sozialen Arbeit entlasten? Die Sozial KI Gründer im Interview mit der Heilbronner Stimme über Dokumentation, Bias und Datenschutz.
Spielecontroller verbunden mit dem SoKI-Logo
von Theodor Schöwitz 29. Dezember 2025
Gamifizierung nutzt spielerische Elemente, um die Motivation für Aufgaben zu steigern, die im Alltag oft als langweilig, anstrengend oder wenig attraktiv empfunden werden. Durch Belohnungssysteme, interaktive Szenarien oder narrative Strukturen können auch komplexe oder unangenehme Tätigkeiten ansprechender gestaltet werden. Ein ungewöhnliches, aber eindrucksvolles Beispiel ist der Dating-Simulator „Tax Heaven 3000“ des Spielestudios MSCHF. Hier wird die Erstellung einer US-Steuererklärung in ein romantisches Spiel integriert: Ein virtueller Partner stellt im Rahmen einer Liebesgeschichte immer persönlichere Fragen - darunter auch solche zu finanziellen Verhältnissen, die für die Steuererklärung relevant sind. Obwohl das Spiel ein kreatives Paradebeispiel für Gamification (Gamifizierung) ist, steht es in der Kritik, da es klischeehafte und sexualisierte Darstellungen weiblicher Figuren reproduziert und damit problematische Rollenbilder verstärkt.
Die Werte von Sozial KI
von Theodor Schöwitz 8. Dezember 2025
Die Idee zu Sozial-KI entstand im Sommer 2024 im Rahmen des Studiengangs „Digitalisierung in der Sozialen Arbeit“ an der DHBW CAS in Heilbronn. Während der Vorlesungen wurde zunehmend klar, dass Sprachmodelle das Potenzial haben, das Sozialwesen grundlegend zu verändern. Ein großer Teil der Arbeitszeit in diesem Bereich besteht aus schriftlichen Tätigkeiten - von Falldokumentationen und Berichten bis hin zur Korrespondenz mit Klient:innen und Kooperationspartner:innen. Sprachmodelle können solche Aufgaben teilweise übernehmen und damit Fachkräfte entlasten, sodass mehr Zeit für die direkte Interaktion mit den Klient:innen bleibt. Erste Tests mit anonymisierten Beispielen aus der Praxis bestätigten diese Annahme: KI-Modelle wie ChatGPT eignen sich tatsächlich, um zeitaufwendige Schreibarbeiten vorbereitend zu unterstützen. Allerdings stellten sich schnell zentrale Probleme heraus - der sichere Umgang mit hochsensiblen Sozialdaten sowie die Verarbeitung von tabuisierten Inhalten wie Gewalt und Sexualität. Die gängigen KI-Lösungen großer US-Anbieter kamen aufgrund von Datenschutzbedenken nicht infrage, und bestehende Alternativen boten entweder unzureichenden Schutz oder zu wenig Funktionalität für den produktiven Einsatz. Da keine passende Lösung auf dem Markt verfügbar war, die sowohl den besonderen Anforderungen des Sozialwesens als auch den hohen Standards an Datensouveränität gerecht wurde, beschlossen wir, selbst einen Prototypen zu entwickeln. Dabei flossen von Anfang an ethische und technische Ansätze ein, die Datensicherheit, Unabhängigkeit und die spezifischen Bedürfnisse sozialer Einrichtungen berücksichtigen. Unser Ziel war es, eine Lösung zu schaffen, die nicht nur funktional, sondern auch werteorientiert ist - ganz im Sinne der Prinzipien, die uns im Studium vermittelt wurden .
Fähigkeiten von AI / KI Systemen Infographic
von Theodor Schöwitz 5. November 2025
Eine beispielhafte Erkundung von für soziale Arbeitsfelder relevante KI-Fähigkeiten
Grafik zu DSGVO und US Cloud Act Risiken bei KI-Nutzung in der Sozialen Arbeit
von Niclas Höhl 22. Oktober 2025
Sozialwirtschaftliche Organisationen, die Künstliche Intelligenz in ihre Arbeitsprozesse integrieren möchten, stehen häufig vor der Frage, ob und wie diese Technologie datenschutzkonform eingesetzt werden kann. Gerade im sozialen Bereich werden besonders sensible personenbezogene Daten von Schutzbefohlenen verarbeitet. Solche Informationen erfordern einen besonders sorgfältigen Umgang. Für soziale Träger hat der Schutz dieser Daten höchste Priorität – sowohl aus ethischer Verantwortung als auch wegen der möglichen Sanktionen bei Datenschutzverstößen. Hohe Sicherheits- und Datenschutzstandards sind daher unverzichtbar, um die Anforderungen der EU-Datenschutz-Grundverordnung (DSGVO) zu erfüllen. Ein Risiko, das vielen Organisationen bislang kaum bewusst ist, ist der Einfluss des US CLOUD Act. Dieses Gesetz kann selbst dann Auswirkungen auf den Datenschutz haben, wenn Daten ausschließlich auf europäischen Servern gespeichert werden.