Diskurs

Kinder- und Jugendhilfe im KI-Zeitalter

Der Einsatz von Künstlicher Intelligenz in der Kinder- und Jugendhilfe bietet zahlreiche Anwendungsmöglichkeiten, von administrativen Prozessen bis zur direkten Klient*innenarbeit. Dabei ergeben sich ethische und professionstheoretische Herausforderungen. KI-Systeme unterstützen bei der Risikoerkennung im Kinderschutz und der Prozessoptimierung, aber auch in der pädagogischen Praxis.

20.11.2025

Der Einsatz von Künstlicher Intelligenz in der Kinder- und Jugendhilfe eröffnet vielfältige Anwendungsmöglichkeiten, die sowohl administrative Bereiche, Planungs- und Prognoseprozesse als auch die direkte Arbeit mit Klient*innen betreffen. Damit verbunden sind professionstheoretische und ethische Herausforderungen, weil KI als technologische Innovationen das Berufsfeld und die Lebenswelt der Klient*innen nachhaltig verändert. Konkrete Beispiele zeigen auf, wie der Forschungs-, Entwicklungs- und Diskussionsstand ist. 

Künstliche Intelligenz 

Bereits vor dem öffentlichen Durchbruch generativer KI durch ChatGPT im Jahr 2022 wurde Künstliche Intelligenz in verschiedenen Bereichen erforscht und eingesetzt, häufig ohne explizite Wahrnehmung durch die Nutzer*innen. Dabei dominierten regelbasierte Systeme, die nach klar definierten Entscheidungslogiken handeln („Wenn-dann-Regeln“) und zur Lösung spezifischer Aufgaben eingesetzt werden.

Mit der Entwicklung tiefenlernender neuronaler Netze hat sich das Spektrum der KI-Anwendungen erheblich erweitert. Generative KI erkennt Muster in umfangreichen Datenbeständen und erzeugt darauf basierend neue Inhalte wie Texte, Bilder, Musik oder Videos (vgl. Ladwig 2024). Begriffe wie Deep Learning und neuronale Netze sind in diesem Zusammenhang zentral.

Eine Weiterentwicklung stellen lernende KI-Agenten dar, die mit ihrer Umgebung interagieren, Informationen aufnehmen, autonom Entscheidungen treffen und Handlungen ausführen, um definierte Ziele zu erreichen und menschliches soziales Verhalten nachzuahmen (Google Cloud 2025).  

Diese Technologien verändern zunehmend auch die Rahmenbedingungen und Arbeitsweisen in der Kinder- und Jugendhilfe. So kann ein System zur Risikoerkennung im Kinderschutz generative KI zur Musteranalyse nutzen, während es als KI-Agent eigenständig Fälle bewertet und Handlungsempfehlungen ableitet.

Im Feld der Kinder- und Jugendhilfe finden sich verschiedene Nutzungsformen der KI. Dabei stehen regeldominierte Systeme und insbesondere generative KI im Vordergrund. Vollautonome KI-Agenten sind derzeit nicht im Einsatz. Teilweise autonome Agenten – etwa im Bereich der Predictive Analytics – befinden sich in einzelnen Pilotprojekten in der Erprobung.

Optionen der KI-Anwendungen in der Kinder- und Jugendhilfe

Bürokratieabbau, Datenverarbeitung und Prozessoptimierung

KI-Nutzung zum Bürokratieabbau, zur Datenverarbeitung und Prozessoptimierung wird weitgehend unkritisch und vorteilhaft bewertet und bereits vielfach genutzt, da die Künstliche Intelligenz Fachkräfte, Jugendhilfeeinrichtungen, Jugendämter und Verbände durch Automatisierung von administrativen Aufgaben entlasten und die Effizienz steigern kann. 

KI ist u.a. hilfreich bei 

  • Texterstellung, Text- und Datenanalysen, Dokumentationen und Kommunikation (Macsenaere/Feist-Ortmanns 2025). Das Institut für Kinder- und Jugendhilfe (IKJ) hat Mitte 2025 ein Projekt zur Entwicklung und Implementierung von sicheren, jugendhilfespezifischen und nachhaltigen KI-Lösungen gestartet (ebd., S. 96ff). Ein weiteres Beispiel: Das Projekt „Automatisierte Erstellung von Aktennotizen durch eine KI-Anwendung“ (Plafky et al. 2025).
  • Zur Reflexion, als Ideengeber (etwa für Konzept- oder Projektentwicklungen), zur Entscheidungsunterstützung (z.B. Projekt KIEPA; Plawky et al. 2022).
  • Für die Unterstützung im pädagogischen Alltag, wie bei der Organisation von Veranstaltungen oder Unternehmungen, Entwicklung von Theater- oder Musikstücken, Podcasts oder Medienprojekten oder visuellen Gestaltungen mithilfe von Bildgeneratoren wie Nano Banana von Gemini (seit August 2025) oder Midjourney.
  • Auch im Bereich der Informationsbeschaffung ist KI eine wertvolle Unterstützung. www.jugendhilfe.ai, ein Beispiel für eine regelbasierte KI, stellt beispielsweise Fachinformationen zu Sozialrecht, Rahmenverträgen und professionsspezifischem Wissen zur Verfügung. 

KI-Potenziale für Menschen mit Beeinträchtigungen

Eine inklusiv ausgerichtete Kinder- und Jugendhilfe ist gefordert, sich verstärkt mit den Potenzialen Künstlicher Intelligenz für Menschen mit Beeinträchtigungen auseinanderzusetzen, um inklusive Angebote zu gestalten und um die Selbstbestimmung, das Empowerment von Menschen mit Beeinträchtigungen zu fördern. Die Einsatzmöglichkeiten der KI sind vielfältig und reichen von sprachlich vereinfachter Kommunikation bis hin zu assistiven Technologien für Menschen mit kognitiven, körperlichen oder sensorischen Einschränkungen (Steiner 2025, S. 133f). 
Anwendungsbereiche der KI sind etwa der Einsatz von Sprachassistenten oder die Umformulierung komplexer Texte in Leichte Sprache (in der Kinder- und Jugendhilfe ist das Projekt „KIESA“ zu nennen / Nov.  2024 bis Okt. 2027; www.bvke.de/projekte/kiesa-inklusiv-beraten). Auch in der Therapie-Nachsorge, zur Unterstützung psychischer Gesundheit, bei der beruflichen Integration oder in Bildungsprozessen kann KI unterstützend wirken. Erste Informationssammlungen wie inklusio.ai bieten einen Zugang zu Fachpublikationen rund um Inklusion und Jugendhilfe.

Unterstützung in der Kommunikation mit Migrant*innen mit unzureichenden Deutschsprachkenntnissen

Der Einsatz KI-basierter Übersetzungstools kann die Kommunikation in Elterngesprächen, in der Migrationsberatung sowie in der Arbeit mit geflüchteten jungen Menschen erheblich erleichtern. Text zu Sprache-Systeme, Videoübersetzungen oder Dolmetscher-Apps mit Sprachein- und -ausgabe wie Google Translate, DeepL und Reverso erweitern die Einsatzmöglichkeiten in der Arbeit mit Menschen mit Migrationsgeschichte. Im Gegensatz zur regelbasierte Übersetzungstools, die deterministisch sind und auf vordefinierten grammatikalischen Regeln und zweisprachigen Wörterbüchern basieren, können lernfähige KI-Übersetzungstools eine deutlich bessere Übersetzungsqualität liefern und auch idiomatische Ausdrücke (Redewendungen) und komplexe Sätze verstehen. 
Zwar sind diese Systeme nicht fehlerfrei, z.B. aufgrund unzureichender kultureller Sensibilität, doch kann ihre Nutzung dennoch dazu beitragen, Missverständnisse zu reduzieren, die bei einer rein sprachlich basierten Interaktion ohne Übersetzungshilfe deutlich häufiger auftreten würden. Im Vergleich zum Einsatz professioneller Dolmetscher*innen bieten KI-gestützte Anwendungen eine niedrigschwellige, oft kostenfreie und flexibel einsetzbare Alternative, wobei datenschutzrechtliche Fragen beachtet werden müssen.

Individualisierte Lernprozesse durch KI

Der Einsatz von Sprach-, Lern- und Förderprogrammen auf Basis Künstlicher Intelligenz kann einen signifikanten Beitrag zur individuellen Bildungsförderung leisten. KI-gestützte Systeme sind in der Lage, sich adaptiv an die jeweiligen Bedürfnisse, z. B. bei Autismus, ADHS oder sprachlichen und motorischen Verzögerungen sowie dem Entwicklungsstand der Nutzer*innen anzupassen. Sie ermöglichen differenziertes, intelligentes Feedback, führen automatisierte Fehleranalysen durch und integrieren motivationale sowie positiv verstärkende Elemente in den Lernprozess, z.B. Gamification. Zudem sind KI-basierte Lernsysteme rund um die Uhr verfügbar, beliebig oft wiederholbar und können somit genau dann genutzt werden, wenn bei den Lernenden zeitliche Ressourcen und kognitive Kapazitäten vorhanden sind.

Vernetzungsoptionen

KI kann Vernetzung erleichtern, indem sie Fachkräfte über eine Datenplattform miteinander verbindet. Ein Beispiel ist die in der Entwicklung befindliche App Kipti, die in Schulen eingesetzt werden soll, um Wissen aus dem Unterricht, dem Ganztag, der Schulsozialarbeit und der Schulbegleitung zu bündeln, die Dokumentation zu erleichtern und um einen besseren Informationsfluss untereinander zu gewährleisten. Im Kontext von Verfahrenslots*innen wird ebenfalls mithilfe einer KI-basierten App versucht, den bundesweiten Informationsaustausch, die Materialsammlung und die Kommunikation zu optimieren (Gerlach 2025). KI-basierte Tools können im Gegensatz zu klassischen Vernetzungstools verstehen, lernen, entscheiden und kreativ unterstützen.

Partizipation mit Hilfe von KI 

Partizipationsmöglichkeiten und -prozesse lassen sich mittels KI verbessern oder ergänzen. So enthält die Plattform www.kommuki.de seit September 2024 Ideen der kommunalen Jugendbeteiligung und ermöglicht eine Kommunikation mit einem KI-Chatbot für Antworten auf alle Fragen zu diesem Thema.

KI in der Ausbildung von pädagogischen Fachkräften 

KI kann als Unterstützung dienen, um realitätsnahe Situation aus dem Alltag der Kinder- und Jugendhilfe zu simulieren. So entwickelt die HS Osnabrück im Projekt Aid4Children eine Version unter Verwendung von KI und VR-Brillen eine Simulation, mit der die Identifikation und das Beschreiben gewichtiger Anhaltspunkte sowie die Einschätzung des Gefährdungsrisikos trainiert werden können, um sich für die Fachpraxis realistisch vorzubereiten. Die KI gibt (kritisches) Feedback und die Studierenden können ihrerseits die Gesprächssituation aufarbeiten (Beckmann 2025).

KI in der Diagnostik und Hilfeplanung

KI ist in der Lage, aus abgeschlossenen Hilfeverläufen zu analysieren und Vorschläge geeigneter Hilfearten und Hilfesettings für die Fachkräfte zu unterbreiten (Macsenaere/Feist-Ortmanns 2025, S. 92) oder in erzieherischen Kontexten kann KI individuelle Handlungsempfehlungen geben (Schulze 2021).
Das Monitoring von Hilfeverläufen mit KI findet bereits vereinzelt statt. Im Projekt ‚KI-unterstützte Kommunikation in der Hilfeplanung (KiKoH)‘ wird im Rahmen der Hilfeplanung getestet, wie Zeit- und Arbeitsaufwand der Fachkräfte reduziert werden kann. Ein größeres Entwicklungs- und Forschungsprojekt soll nach Ende der Projektlaufzeit im Oktober 2025 folgen. www.e-beratungsinstitut.de/kikoh/

KI in der Jugendhilfeplanung

Da KI in der Lage ist, in Sekundenschnelle große Mengen von Daten und Texten zu analysieren, bietet sich eine Sozial- und Jugendhilfeplanung mithilfe von KI an. Bei guter Datenlage und guten Prompts, also gut formulierten Aufträgen an die KI, profitieren die Kommunen von der KI. Langwierige Datenerhebungen und Berechnungen entfallen und andere Fachkräfte wie auch die Politik können schneller in Prozesse einbezogen werden. Einige Jugendhilfeplaner*innen haben die Potenziale frühzeitig erkannt (ISM 2024; Hladik/Käs 2024).

Risikoabschätzung und Schutzmaßnahmen

Prädiktive KI-Modelle sind Algorithmen des maschinellen Lernens, die historische Daten analysieren. Dabei sollen Muster identifiziert werden, um zukünftige Ereignisse, Trends oder Verhaltensweisen vorherzusagen. Sie sollen zur Entscheidungsunterstützung beitragen (u.a. Plafky et al. 2022; Plafky 2025; Burghardt/Lehmann 2023; Macsenaere/Feist-Ortmanns 2025, S. 93). Eingesetzt wurden und werden prädiktive Modelle beispielsweise in der Kriminalitätsprävention etwa durch Berechnung von Rückfallwahrscheinlichkeiten bei Straftäter*innen (z.B. in den USA), bei der Prognose von Trouble familys (z.B. in England), bei der Analyse von Sozialbetrug (z.B. in den Niederlanden, bis es aufgrund fehlerhafter Ergebnisse zu einem Skandal kam) und im Kinderschutz (z.B. in England; Neuseeland) (Gravelmann 2025, S. 12). Auch in der Suchtprävention gibt es Handlungsansätze (vgl. Hardeling; Potsdamer Referendum 2025)

Menschlich wirkende KI als spezifische Herausforderung für die Kinder- und Jugendhilfe

KI-Systeme werden zunehmend in zwischenmenschliche Interaktionen eingebunden. Sie sind in der Lage, eine dialogische Nähe durch personalisierte Kommunikation, Erinnerungsfähigkeit und emotionale Reaktionen aufzubauen. Dies betrifft beispielsweise die psychosoziale Beratung, in der KI bereits als Gesprächspartner getestet wird (Hatch et al. 2025; Engelhardt/Kühne 2025). Das Institut für e-Beratung an der TH Nürnberg hat verschiedene Projekte durchgeführt, u.a. „KIA - Kl gestützte Assistenz für digitale, psychosoziale Beratung“, bei dem die Bundeskonferenz für Erziehungsberatung Partner ist. Die KI-Assistenz kann in der Onlineberatung eingehende Fragen in Echtzeit analysieren und den Fachkräften fallspezifische Hinweise zur Verfügung stellen.
Digitale Spielzeuge, die Nutzung von KI-Systemen als Gesprächspartner etwa bei Einsamkeit oder KI-generierte Avatare auf SocialMedia-Plattformen wie „Lu do Magalu“ und „Lil Miquela“ übernehmen soziale Funktionen und beeinflussen emotionale Bindungen. Auch nehmen Mensch-Chatbot-Beziehungen zu (Ludolf 2025). Die Grenzen zwischen realer und virtueller Beziehung verschwimmen zunehmend (Meric 2025). Erste Studien zeigen, dass der Einsatz von KI auch die sozialen Interaktionen in Organisationen beeinflusst. So wenden sich 19 % der Befragten mit Fragen lieber an KI-Assistenten als an menschliche Kolleg*innen, was neue Implikationen für Personalführung und Teamarbeit mit sich bringt (Haufe-Online-Redaktion 2024).

Die Entwicklungen hin zu „beziehungsfähiger“ KI, die Empathie vortäuscht und Intimität suggeriert, wirft grundlegende Fragen zur Authentizität, Verantwortung und professionellen Haltung auf (Brunner 2023). Die Vorstellung von KI als „emotional intelligenter Helfer“ (Matusiewicz/Werner 2025) fordert eine kritische Reflexion über die Grenzen technischer Unterstützung, über die Rolle menschlicher Fachkräfte und die mit „emotionaler“ KI verbundenen Gefährdungen, so soll ChatGPT z.B. einen Jugendlichen in den Suizid getrieben haben (Habich 2025, S. 22). . 

Ethische Implikationen KI-basierter Entscheidungsverfahren

Neben der „menschelnden KI“ sind insbesondere Bereiche mit hoher Entscheidungstiefe wie dem Kinderschutz mit grundlegenden professionsethischen Fragestellungen verbunden. Prädiktive Modelle auf Basis Künstlicher Intelligenz gelten einerseits als leistungsfähig und in bestimmten Anwendungsbereichen treffsicherer als menschliche Diagnosen oder Einschätzungen (Bastian/Schrödter 2019, S. 40). Andererseits stehen sie in der Kritik, da sie zentrale menschliche Kompetenzen wie Intuition, Erfahrungswissen und kontextbezogene Analyse nicht vollständig abbilden. Zudem besteht die Möglichkeit, dass sie auf fehlerhaften oder verzerrten Datensätzen beruhen. Nicht zuletzt wird befürchtet, dass die Entscheidungsdominanz KI-basierter Systeme überhandnehmen und menschliche Urteilsfähigkeit, die Autonomie und die dialogische, beziehungsorientierte Praxis der Sozialen Arbeit zunehmend verdrängen könnte. „Kann ein Algorithmus im Konflikt moralisch kalkulieren?“, diese Frage hat das Projekt KAIMO zu beantworten versucht (https://www.e-beratungsinstitut.de/projekte/kaimo/).

Kaminsky (2021) warnt vor einem Verlust zentraler Elemente der Profession – ihrer Wirksamkeit, ihrer Organisationslogik und ihres Selbstverständnisses. Lob-Hüdepohl (2023) sieht die Gefahr, dass Fachkräfte in bestimmten Handlungsvollzügen ihre Subjektrolle verlieren und pädagogische Prinzipien wie Beziehungsgestaltung und die Anerkennung der Ressourcen der Klient*innen entkernt werden. Der Deutsche Ethikrat (2023) fürchtet, dass KI-Empfehlungen durch Gewöhnung, Überlastung oder Entscheidungsdruck von Fachkräften ungeprüft übernommen werden. Die Empfehlung des Ethikrates lautet daher, nicht die Ablehnung, sondern die Annahme von KI-Vorschlägen sei zu begründen (ebd., S. 330). Der Ethikrat weist zugleich darauf hin, dass KI in vielen Fällen präzisere Entscheidungen trifft als Menschen. Eine Nicht-Nutzung kann daher auch zum Nachteil der Betroffenen führen (ebd., S. 308). Dennoch bleibt die Frage offen, wie technische Effizienz mit ethischer Verantwortung und menschlicher Beziehungspraxis vereinbar ist. Sollen die Fachkräfte ihrer eigenen Expertise oder den datenbasierten Empfehlungen der KI folgen? Kords sieht den KI-Einsatz nicht nur bei Entscheidungsverfahren als ethisch problematisch an, sondern grundsätzlich. Er befürchtet: „Wer das Denken auslagert, lagert seine eigene Entwicklung und Identität in Teilen gleich mit aus und macht sich zum Zuschauer der eigenen Entmündigung“ (Kords 2025, S. 15). 

Implikationen des KI-Einsatzes in der Kinder- und Jugendhilfe

Neben der Gefahr einer unreflektierten Übernahme KI-generierter Empfehlungen durch eine Überbewertung algorithmischer Autorität, sind weitere problematische Aspekte zu berücksichtigen.

  • KI-Systeme sind weder fehlerfrei noch agieren sie wertneutral und sie können falsche oder erfundene Informationen („KI-Halluzinationen“) generieren. Die von der KI präsentierten Inhalte erscheinen oft plausibel, da sie kohärent begründet und mit hoher sprachlicher Sicherheit vermittelt werden, was die kritische Prüfung durch Fachkräfte erschwert.
  • Ein zentrales Problem stellt die mangelnde Transparenz der Entscheidungsprozesse dar – die sogenannte „Blackbox“-Problematik. Nutzer*innen erhalten in der Regel keine nachvollziehbaren Informationen darüber, wie Empfehlungen zustande kommen, wodurch die professionelle Bewertung erschwert wird.
  • Darüber hinaus besteht die Gefahr der Reproduktion und Verstärkung gesellschaftlicher Vorurteile durch algorithmische Verzerrungen (Bias). Diese entstehen insbesondere durch fehlende Diversität der Forscher*innen und Entwickler*innen, was zu „blinden Flecken“ beiträgt. Bestimmte Perspektiven und Erfahrungen werden übersehen. Gerade in einem sensiblen Arbeitsfeld wie der Kinder- und Jugendhilfe kann dies zu diskriminierenden oder unangemessenen KI-Anwendungen und Fehlentscheidungen führen.
  • Die Qualität und Repräsentativität der Daten sind von zentraler Bedeutung. „Shit in – shit out“ (2025, S. 19) formuliert Macsenaere pointiert. In der Kinder- und Jugendhilfe gestaltet sich die Datengewinnung besonders herausfordernd, da die Arbeit mit hochsensiblen personenbezogenen Informationen strengen Datenschutzvorgaben unterliegt und die Fallzahlen häufig gering sowie durch komplexe individuelle Konstellationen geprägt sind. Diese Rahmenbedingungen erschweren die Entwicklung verlässlicher und ethisch vertretbarer KI-Systeme.

Ausblick zum Einsatz von Künstlicher Intelligenz in der Kinder- und Jugendhilfe

Kompetenzen im Umgang mit KI entwickeln sich zunehmend zu einer Schlüsselqualifikation in einem Berufsfeld, das traditionell durch zwischenmenschliche Kommunikation und Beziehungsarbeit geprägt ist.

Die Profession ist gefordert, die sich durch KI bietenden Optionen zu nutzen, dabei zugleich aber die ethischen, sozialen und fachlichen Implikationen der Transformation des Arbeitsfeldes durch KI kritisch zu reflektieren. Die Akteur*innen der Kinder- und Jugendhilfe müssen dafür ein grundlegendes Verständnis für die Funktionsweise, die Grenzen sowie die gesellschaftlichen und professionsspezifischen Auswirkungen von KI entwickeln und ihre Perspektiven aktiv in die Entwicklung und Implementierung von KI-Systemen einbringen, damit die spezifischen Anforderungen des Arbeitsfeldes adäquat Berücksichtigung finden. Es gilt, technologische Innovationen so zu integrieren, dass sie die professionelle Handlungskompetenz erweitern, ohne die humanistische Grundorientierung der Sozialen Arbeit zu gefährden.

Quellen / Literatur

Bastian, Pascal/Schrödter, Mark (2019): Risikodiagnostik durch „Big Data Analytics“ im Kinderschutz. In: ARCHIV für Wissenschaft und Praxis der sozialen Arbeit. Deutscher Verein (Hrsg.), Berlin, S. 40-49. 

Beckmann, Kathinka (2025): KI im Kinderschutz: Fluch oder Segen? - Kinderschutz Podcast. www.youtube.com/watch  (letzter Abruf: 21.09.2025).

bke (2023): Projekt KIA – KI gestützte Assistenz für Onlineberatende. www.bke-beratung.de/aktuelles/new/projekt-kia (letzter Abruf: 21.09.2025).

Brunner, Thomas (2023): Was KI mit der Sozialen Arbeit macht - und umgekehrt. Was KI mit der Sozialen Arbeit macht - und umgekehrt (letzter Abruf: 21.09.2025).

Burghardt, Jennifer/Lehmann, Robert (2023): Künstliche Intelligenz und Kinderschutz. In: Jugendhilfe, Jg 61, H. 5, S. 410-415.

Deutscher Ethikrat (2023): Mensch und Maschine. Herausforderungen durch Künstliche Intelligenz. www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf (letzter Abruf: 21.09.2025).

dpa (2021): Können Sprachassistenten soziale Beziehungen ersetzen? In: TECHBOOK www.techbook.de/home-entertainment/smart-speaker/beziehung-sprachassistenten (letzter Abruf: 21.09.2025).

Engelhardt, Emily M./Kühne, Stefan (2025): Künstliche Intelligenz in der Beratung, Vandenhoeck und Ruprecht Verlage, Wien und Köln. 

Habich, Irene (2025): Wie gefährlich ist KI in der Krise? In: Hannoversche Allgemeine Zeitung, 08.09.2025, S. 22.

Gerlach, Florian (2025): Digitale Unterstützung der Verfahrenslotsinnen und Verfahrenslotsen in der inklusiven Jugendhilfe. In: ARCHIV für Wissenschaft und Praxis der Sozialen Arbeit, 3/2025, Deutscher Verein (Hrsg.), Berlin, S. 60-66.

Google Cloud (2025): Was ist ein KI-Agent. cloud.google.com/discover/what-are-ai-agents (letzter Abruf: 11.10.2025).

Gravelmann, Reinhold (2025): Künstliche Intelligenz in der Sozialen Arbeit – Zwischen Bedenken und Optionen. In: TUP-Theorie und Praxis der Sozialen Arbeit. H.1, BeltzJuventa, Weinheim, S. 4-17. 

Hatch, Gabe, S./Goodman, Zachary T./Vowels, Laura/Hatch, H. Dorian/Brown, Alyssa L./Guttman, Shayna/Le, Yunying/Bailey, Benjamin/Bailey, Russell J./Esplin, Charlotte/Harris, Steven M./Holt Jr. D. Payton/McLaughlin, Merranda/O’Connell, Patrick/Rothman, Karen/Ritchie, Lane/Top Jr, D. Nicholas/Braithwaite, Scott R. (2025): When ELIZA meets therapists: A Turing test for the heart and mind In: Plos. Menthal health, 12.02.2025 journals.plos.org/mentalhealth/article (letzter Abruf: 21.09.2025).

Haufe-Online-Redaktion (2024): Wie KI dem sozialen Miteinander am Arbeitsplatz schaden kann. www.haufe.de/personal/hr-management/wie-ki-dem-sozialen-miteinander-am-arbeitsplatz-schaden-kann_80_636198.html  (letzter Abruf: 21.09.2025).

Hladik, Markus/Käs, Stefan (2024): KI First – Excel Second. Potenziale von Künstlicher Intelligenz für die Arbeit in der Jugendhilfeplanung. In: www.jadigital.de www.digitalejugendhilfe.de/jadigital/jadigital-veranstaltungen/vortrag-markus-hladik-stefan-kaes-stadtjugendamt-erlangen-zum-thema-ki-first-excel-second-potenziale-von-kuenstlicher-intelligenz-fuer-die-arbeit-in-der-jugendhilfeplanung.html  (letzter Abruf: 21.09.2025).

ISM-Institut für sozialpädagogische Forschung Mainz (2024): Digitalisierung und Jugendhilfeplanung Teil 2 www.digitalejugendhilfe.de/fileadmin/uploads/user_upload/Dokumentation_Online-Fachgespr%C3%A4ch_Digitalisierung_in_der_JHP_2_Onlineversion.pdf (letzter Abruf: 21.09.2025).

Kaminsky, Carmen (2021): Digitale Transformation Sozialer Arbeit? – Ethische Orientierungen auf neuem Terrain. In: EthikJournal, 2/2021, S. 1-21. www.ethikjournal.de/fileadmin/user_upload/ethikjournal/Texte_Ausgabe_2021_2/Kaminsky_Ethikjournal_2.2021.pdf  (letzter Abruf: 21.09.2025).

Kords, Udo (2025): Wenn wir das Denken abgeben. In: wochentaz, 13.-19.09.2025, S. 15 

Ladwig, Phillipp (2024): Was ist KI und welche Formen von KI gibt es? In: bpb-Bundeszentrale für politische Bildung. www.bpb.de/lernen/bewegtbild-und-politische-bildung/555997/was-ist-ki-und-welche-formen-von-ki-gibt-es/ (letzter Abruf: 10.10.2025).

Lob-Hüdepohl, Andreas (2023): Künstliche Intelligenz in der Kinder- und Jugendhilfe – Ethische Grundsätze des Dt. Ethikrates. In: Jugendhilfe 5/2023, S. 383-388.

Ludolf, Julia (2025): Wie KI-Apps emotionale Nähe schaffen. In: ZDF-heute, 23.06.2025. www.zdfheute.de/ratgeber/kuenstliche-intelligenz-ai-companion-virtueller-partner-beziehung-100.html (letzter Abruf: 21.09.2025).

Macsenaere, Michael (Hg.) (2025): Künstliche Intelligenz in der Kinder- und Jugendhilfe. Ernst Reinhardt-Verlag, München.

Marcsenare, Michael/Feist-Ortmanns, Monika (2025): KI in der Kinder- und Jugendhilfe. In: Künstliche Intelligenz in der Sozialen Arbeit: Grundlagen für Theorie und Praxis, Linnemann, Gesa/Löhe, Julia/Rottkemper, Beate (Hrsg.), BeltzJuventa Weinheim. S. 90-101.

Matusiewicz, Daniel/Werner, Jochen A. (2025): Künstliche Empathie. Wenn Maschinen Gefühle zeigen. Murmann Publischers, Hamburg. 

Meric, Sibel (2025): KI Influencer – Die Zukunft des digitalen Marketing? (03.03.2025). In: Deutsches Institut für Marketing. www.marketinginstitut.biz/blog/ki-influencer/ (letzter Abruf: 21.09.2025).

Plafky, Christiana S. (2025): Entscheidungsunterstützung in der Sozialen Arbeit durch prädikative Analytik. In: ARCHIV für Wissenschaft und Praxis der Sozialen Arbeit (3/2025), Deutscher Verein (Hrsg.), Berlin, S. 36-39. 

Plafky, Christina S./Purandare, Mitra/Plattner, Benjamin/Hrytsai, Svitlana (2025): Aktennotizerstellung in der Sozialen Arbeit durch Künstliche Intelligenz – Erkenntnisse aus einem Mixed-Method-Forschungsprojekt. In: Künstliche Intelligenz in der Sozialen Arbeit: Grundlagen für Theorie und Praxis, Linnemann, Gesa/Löhe, Julia/Rottkemper, Beate (Hrsg.), BeltzJuventa, Weinheim, S. 190-203.

Plafky, Christina S./Kratz, Norbert/Kuck, André/Frischhut, Hans (2022): KI-basierte Entscheidungsunterstützung in der Praxis Sozialer Arbeit. In: unsere jugend, Jg 74, H. 3, Ernst Reinhardt-Verlag München, S. 115-121. 

Schulze, Sven (2022): Künstliche Intelligenz - nur in der Autoindustrie? In: unsere jugend, 3/2022, S. 130-132.

Steiner, Olivier (2025): Künstliche Intelligenz und Inklusion. In: Künstliche Intelligenz und Soziale Arbeit: Grundlagen für Theorie und Praxis. Linnemann, Gesa/Löhe, Julian/Rottkämper, Beate, Sep. 2025, BeltzJuventa, Weinheim, S. 128-140.

Autor

Reinhold Gravelmann, Dipl. Pädagoge, Dipl. Sozialpädagoge, Referent beim AFET-Bundesverband für Erziehungshilfe, freiberuflicher Referent und Autor zu verschiedensten Themenfeldern der Kinder- und Jugendhilfe sowie Eltern-Medien-Trainer der Landesstelle Jugendschutz Niedersachsen. Letzte Buchveröffentlichung: „Jugend online! Soziale Arbeit offline?“, BeltzJuventa, 2024.

E-Mail: referent-gravelmann@web.de 
Internet: www.referent-gravelmann.de

Redaktion: Sofia Sandmann