Kann KI tatsächlich eine Unterstützung für Mediator:innen sein?
Kann eine Maschine Konflikte verstehen?
Diese Frage stelle ich mir immer wieder, und ich bin darüber ins Gespräch gegangen mit ChatGPT und wollte es wissen …
Mediation lebt von Begegnung. Von Zwischentönen, Blicken, kleinen Gesten. Von Momenten, in denen Schweigen mehr sagt als Worte. Von Vertrauen. All das scheint zunächst unvereinbar mit einer Technologie, die aus Daten lernt und in Textform reagiert. Und doch lohnt sich der Blick auf die Frage: Kann Künstliche Intelligenz (KI) uns unterstützen – und wenn ja, wie?
Keinesfalls kann KI Ersatz sein für menschliche Empathie, aber vielleicht als Partner für Struktur, Organisation und Reflexion?
Inhalt
Estimated reading time: 16 Minuten
Ich möchte in diesem Artikel zeigen, wo KI heute schon eine Unterstützung sein kann – und wo die Grenzen liegen. Dabei geht es nicht um technische Spielereien, sondern um Haltung, Verantwortung und Zukunftsfähigkeit. Denn klar ist: Die Welt, in der wir Konflikte begleiten, verändert sich – und wir sollten mitdenken, bevor Algorithmen für uns entscheiden.
Gerade in letzter Zeit wird immer häufiger über die Chancen von KI gesprochen – auch dort, wo man früher sehr skeptisch gewesen wäre. So hat sich beispielsweise Michael Lardy intensiv mit diesem Thema KI und Mediation auseinander gesetzt.
Was KI in der Mediation (nicht) kann
Zunächst einmal: Wenn wir von „Künstlicher Intelligenz“ sprechen, meinen wir nicht ein fühlendes Wesen, sondern ein System, das große Mengen an Daten analysiert und daraus Muster erkennt. KI „weiß“ nicht, was richtig oder falsch ist – sie berechnet Wahrscheinlichkeiten. Sie reagiert auf Sprache, kann Emotionen simulieren, Texte zusammenfassen oder Gesprächsverläufe vorschlagen. Aber sie versteht den Menschen nicht im eigentlichen Sinne.
Und genau hier liegt die erste wichtige Unterscheidung für uns Mediator:innen: KI ist ein Werkzeug, kein Akteur.
Sie kann helfen, Informationen zu ordnen, Strukturen zu schaffen, Sprachvorschläge zu machen – aber sie spürt keine Spannung im Raum, kein Zögern, kein Aufatmen. Sie erkennt keine verschränkten Arme, keinen flackernden Blick. Diese feinen Nuancen, die in der Mediation entscheidend sind, bleiben dem Menschen vorbehalten.
Ich erinnere mich an eine Schülermediation, in der zwei Fünftklässlerinnen miteinander sprachen, nachdem sie sich monatelang aus dem Weg gegangen waren. Es war ein stiller Moment, beide sagten fast nichts. Dann hob eine von ihnen kurz den Blick, und die andere nickte. Das war der Wendepunkt. Kein Algorithmus hätte diesen Moment erkannt – und doch war genau hier der Konflikt gelöst.
Das bedeutet nicht, dass KI keinen Platz in der Mediation haben sollte. Im Gegenteil: Wenn wir sie bewusst einsetzen, kann sie uns entlasten und neue Perspektiven öffnen. Aber sie ersetzt weder die Beziehung noch das Bauchgefühl.
In der Mediationsausbildung sprechen wir oft über „Allparteilichkeit“ – die Fähigkeit, empathisch mit allen Seiten zu sein, ohne Partei zu ergreifen. Eine KI kann Neutralität berechnen, aber keine innere Haltung entwickeln. Sie kann Texte vorschlagen, aber nicht menschlich resonieren.
Oder, um es bildlich zu sagen: KI kann das Licht anschalten – aber sie spürt nicht, ob der Raum warm oder kalt ist.
Was KI in der Mediation kann
Wenn man den Begriff Künstliche Intelligenz hört, denkt man heutzutage schnell an ChatGPT. Was kann uns dieses Programm bieten, wenn es um die Mediationspraxis geht? Richtig, es dreht sich um Struktur, Klarheit und Entlastung. Und genau hier kann KI, richtig eingesetzt, zu einer wertvollen Partnerin werden.
Ich sehe KI nicht als Konkurrenz, sondern als Kollegin, die schnell denkt, niemals müde wird und uns hilft, den Überblick zu behalten – während wir Menschen uns auf das konzentrieren, was wirklich zählt: Beziehung, Vertrauen und die Atmosphäre im Raum.
a) Vorbereitung: Ordnung ins Chaos bringen
Vor jeder Mediation steht die Phase der Klärung: Was ist eigentlich passiert? Wer ist beteiligt? Welche Themen stecken dahinter? Maanchmal flattern seitenlange Mails ein, da kann KI ein echter Segen sein.
Ich habe schon erlebt, wie hilfreich es ist, ein KI-Tool mit der Bitte zu füttern:
„Fasse mir diesen E-Mail-Verlauf in neutraler Sprache zusammen und liste die zentralen Themen auf, die du siehst.“
Das Ergebnis war erstaunlich klar: Statt in Emotionen und Details zu versinken, bekam ich einen Überblick – nicht als Entscheidungshilfe, sondern als Sortierhilfe. KI kann Muster erkennen, wiederkehrende Begriffe hervorheben oder verdeckte Themen sichtbar machen. So wurde aus dem Wust an Informationen eine Struktur, mit der ich gut arbeiten konnte.
Gerade in Teams, wo Zeit knapp ist und viele Konflikte parallel laufen, kann das helfen, die Vorbereitung zu entlasten, ohne die Qualität der Mediation zu mindern.
b) Strukturierung: Wenn KI mitdenkt
Ein weiterer spannender Bereich ist die Gesprächsstrukturierung. Viele Mediator:innen – gerade am Anfang – wünschen sich eine Art „Landkarte“, die sie durch das Gespräch führt. KI-Tools können dabei unterstützen, indem sie auf Basis des Falles Vorschläge für Gesprächsphasen, Leitfragen, Frageformen oder gar Methoden generieren.
Beispiel:
„Gib mir bitte auf der Grundlage dieser Konfliktbeschreibung eine mögliche gut formulierte Themenliste, die mich auf die Phase 3 vorbereitet.“
Natürlich sind die Mediand:innen diejenigen, die mir die Themen geben. Und natürlich fasse ich die Themen auf und bringe sie dann in die Phase 3 ein. Aber Ideen geben, das kann ChatGPT wunderbar. Und so könnte ich mir einen Rahmen schaffen, der mir Sicherheit gibt und dennoch kreativ genug im Prozess gehandelt werden kann.
Auch bei Teamkonflikten im schulischen Kontext kann eine KI helfen, aus Stichpunkten eine visuelle Struktur zu erstellen – z. B. ein Mindmap oder eine Konfliktlandkarte. Diese Visualisierung kann dann Grundlage für das Mediationsgespräch werden.
c) Training & Reflexion: KI als Übungspartnerin
Eine der spannendsten Entwicklungen sehe ich in der Ausbildung von Mediator:innen. Nicht dass ich es schon häufiger probiert hätte, aber: KI kann hier als Reflexions- oder Trainingspartnerin dienen. Man kann mit ihr Rollenspiele durchführen – etwa mit dem Auftrag:
„Übernimm die Rolle eines verärgerten Vaters, dessen Tochter in der Schule von drei anderen Mädchen oft geärgert wird.“
Die Antworten der KI aus dieser Rolle heraus sind oft überraschend realistisch. Sie hilft, das eigene Kommunikationsverhalten zu üben, die Wirkung von Fragen zu testen und auch ungewöhnliche Gesprächsverläufe zu simulieren.
Ich habe mit einigen Ausbildungsteilnehmer:innen ausprobiert, typische Mediationsfragen an eine KI zu stellen – und dann gemeinsam reflektiert, welche Antworten hilfreich, welche irritierend oder unpassend waren. Das führte zu intensiven Diskussionen darüber, was „echte Empathie“ eigentlich ausmacht.
d) Nachbereitung: Dokumentation und Reflexion erleichtern
Nach einer Mediation folgt oft der Teil, den viele als eher mühsam empfinden: Protokolle, Vereinbarungen, Reflexionsberichte. Hier kann KI einen Teil der Schreibarbeit übernehmen, indem ich meine Stichpunkte eingebe und KI schreibt, ohne den Sinn zu verändern.
Beispiel:
„Formuliere aus diesen Stichpunkten eine Zusammenfassung der Missverständnisse zwischen den Parteien.“
Das spart Zeit – und lässt mehr Raum für die Nachsorge oder das Feedbackgespräch. Auch bei Supervisionen oder kollegialer Beratung kann KI helfen, Gesprächsnotizen zu strukturieren, Themen zu bündeln oder wiederkehrende Muster zu erkennen.
Zwischenfazit:
KI kann in der Mediationspraxis viel leisten – aber immer in der zweiten Reihe. Sie bringt Ordnung in Informationen, unterstützt bei Strukturen, hilft beim Üben und Schreiben. Doch sie bleibt Werkzeug, kein Gesprächspartner. Wenn sie uns Routinearbeit abnimmt, bleibt mehr Zeit für das, was Mediation im Kern ausmacht: das Zuhören, Verstehen, Übersetzen, Verbinden.
Grenzen und Risiken der KI
Je mehr ich mich mit KI beschäftige, desto klarer wird mir: Das Spannendste an ihr sind nicht die Möglichkeiten – sondern die Grenzen. Denn dort, wo KI endet, beginnt das, was unsere Arbeit als Mediator:innen ausmacht: das Zuhören mit Herz, das Einordnen mit Erfahrung, das Fühlen von Zwischentönen.
a) Datenschutz: Vertraulichkeit ist kein Algorithmus
Einer der wichtigsten Grundsätze in jeder Mediation lautet: Alles, was hier gesagt wird, bleibt hier. Das ist nicht nur eine formale Regel, sondern ein Vertrauensversprechen. Wenn wir KI einsetzen, geraten wir schnell in einen Graubereich.
Denn jede Eingabe – sei es ein Fallbeispiel, eine Gesprächssituation oder ein Protokoll – wird technisch gesehen verarbeitet, analysiert und in irgendeiner Form gespeichert. Selbst wenn die Tools „Datenschutz“ versprechen, bleibt immer die Frage: Wer liest mit?
Ich habe mir angewöhnt, alles, was mit echten Fällen zu tun hat, niemals direkt in ein KI-System einzugeben. Wenn ich also ein Beispiel nutzen möchte, anonymisiere ich es vollständig oder erfinde Parallelen. Das ist nicht nur rechtlich, sondern auch ethisch entscheidend.
Denn die Vertraulichkeit ist das Fundament der Mediation. Wenn wir diesen Schutz leichtfertig aufgeben, weil es „praktisch“ ist, verlieren wir etwas, das sich mit keiner Technologie der Welt wiederherstellen lässt: Vertrauen.
b) Bias: Wenn KI Vorurteile lernt
Ein weiterer Punkt, über den wir Mediator:innen besonders wachsam sein sollten, ist der sogenannte Bias – also die Verzerrung oder Voreingenommenheit, die in den Daten steckt, mit denen KI trainiert wurde.
KI ist kein neutrales Wesen. Sie lernt aus den Texten, Bildern und Mustern, die ihr Menschen zur Verfügung stellen. Und genau dort liegen ihre blinden Flecken.
Ein Beispiel aus einem Experiment, über das ich mal gelesen habe, dessen Quelle ich aber leider nicht mehr weiß: Eine KI wurde gebeten, typische Konfliktbeschreibungen zwischen Schüler:innen zu analysieren. Sie ordnete die Konflikte nach „Schweregrad“ – und bewertete Fälle mit arabisch klingenden Namen automatisch häufiger als „potenziell aggressiv“.
Das ist kein böser Wille, sondern ein Spiegel gesellschaftlicher Stereotype in den Daten. Aber genau deshalb müssen wir als Mediator:innen wachsam bleiben: KI kann vorhandene Vorurteile verstärken – und damit Konflikte verschärfen, statt sie zu klären.
In Einrichtungen, in denen Diversität längst Alltag ist, wäre das fatal. Unsere Aufgabe bleibt also, kritisch hinzuschauen und zu fragen:
„Welche Werte, welche Weltbilder stecken eigentlich in dem, was mir die KI vorschlägt?“
c) Emotionale Qualität: Nähe lässt sich nicht simulieren
Mediation lebt von Beziehung. Und Beziehung entsteht durch Resonanz – durch echtes Mitgehen, durch das Spüren, wann man einen Moment aushält und wann man lenkend eingreift.
Eine KI kann Empathie simulieren, aber nicht fühlen. Sie kann tröstende Worte formulieren, aber nicht wissen, ob sie ankommen. Und sie kann niemals spüren, wie sich ein Raum verändert, wenn jemand endlich den Mut findet, „Es tut mir leid“ zu sagen.
Ich erinnere mich an eine Mediation zwischen zwei Jugendlichen, die sich wochenlang in der Schule ignoriert hatten.
Als einer der beiden plötzlich leise sagte: „Ich hab dich echt vermisst“, war der Raum still. Niemand atmete laut. Das war einer dieser kostbaren Momente, in denen Heilung geschieht – nicht, weil jemand kluge Worte findet, sondern weil jemand da ist. So etwas kann kein Algorithmus.
d) Verantwortung und Ethik: Wer entscheidet eigentlich?
Eine der großen Fragen, die wir uns stellen müssen, lautet auch: Wie viel Verantwortung dürfen wir an Maschinen abgeben?
Wenn eine KI ein Protokoll erstellt, das eine Partei „kälter“ oder „nüchterner“ beschreibt als die andere – übernehmen wir diese Formulierungen unreflektiert? Wenn KI-gestützte Tools Gesprächsphasen vorschlagen, folgen wir ihnen blind oder hinterfragen wir sie?
Unsere Haltung als Mediator:innen ist immer auch eine ethische. Wir entscheiden, wie wir Werkzeuge nutzen – nicht umgekehrt. Und wir tragen Verantwortung dafür, dass die Menschen, die uns ihre Konflikte anvertrauen, nicht in einem technischen Prozess verschwinden.
Zwischenfazit:
KI kann uns unterstützen – aber sie darf uns nicht steuern. Sie kann uns entlasten – aber nicht ersetzen. Und sie kann uns spiegeln, wo wir als Menschen vielleicht selbst blinde Flecken haben.
Der entscheidende Unterschied liegt nicht in der Technik, sondern in der Haltung: Wer KI bewusst, reflektiert und mit Herz einsetzt, kann profitieren. Wer sie unkritisch nutzt, riskiert, dass die Essenz von Mediation – das echte, menschliche Verstehen – verloren geht.
KI und Haltung – Der Mensch bleibt Mittelpunkt
Je länger ich mich mit den Möglichkeiten und Risiken von Künstlicher Intelligenz beschäftige, desto klarer wird mir: Es geht nicht um Technik. Es geht um Haltung.
Denn KI verändert nicht nur, was wir tun, sondern wie wir darüber denken. Und genau hier liegt die entscheidende Verantwortung für uns Mediator:innen – in der Schule genauso wie in der Erwachsenenwelt.
a) Haltung heißt Bewusstsein – nicht Blindflug
Ich beobachte, dass viele Menschen KI-Tools inzwischen wie selbstverständlich nutzen – oft, ohne sich bewusst zu machen, was im Hintergrund passiert. Ein paar Stichworte eingeben, ein Text erscheint, und man ist beeindruckt, wie „menschlich“ das klingt.
Doch als Mediator:innen arbeiten wir nicht mit glatten Oberflächen, sondern mit Tiefe. Wir fragen nach, wir hinterfragen, wir spüren hin. Diese Haltung brauchen wir auch im Umgang mit KI.
Bevor ich ein KI-Ergebnis übernehme, frage ich mich immer: „Fühle ich mich darin wieder? Passt dieser Text zu meiner Haltung?“
Wenn die Antwort Nein lautet, dann ändere ich ihn – oder lasse ihn ganz weg. Denn unsere Haltung darf nicht automatisiert werden. Gerade in Schulen, wo junge Menschen in Zukunft zunehmend mit KI aufwachsen, brauchen sie Erwachsene, die bewusst mit Technik umgehen. Lehrkräfte, Schulsozialarbeiter:innen, Mediator:innen – sie alle sind Vorbilder für den Umgang mit Verantwortung, Vertrauen und Menschlichkeit.
b) KI als Werkzeug, nicht als Wahrheit
Eine KI kann uns inspirieren, erinnern oder entlasten – aber sie ist keine Autorität. Sie „weiß“ nichts über die Einzigartigkeit eines Konflikts. Sie kennt keine Geschichte, keine Biografien, keine Schulerfahrungen, keine leisen Zwischentöne.
Ich sehe sie eher als Assistentin, die uns bei der Arbeit begleitet. So wie jemand, der mitschreibt, sortiert, vorschlägt – aber nicht entscheidet.
Wenn ich beispielsweise ein Reflexionsblatt oder eine Gesprächsstruktur mit Unterstützung einer KI entwickle, sehe ich das als Ko-Produktion: Ich bringe die Haltung, das Fachwissen und die Erfahrung ein – die KI bringt Schnelligkeit, Ideenreichtum und Sprachvielfalt. Aber das Herzstück bleibt menschlich.
Mediation ist kein Algorithmus, sondern Begegnung. Und genau das dürfen wir uns immer wieder bewusst machen.
c) Haltung in der digitalen Welt: Achtsamkeit, Verantwortung, Menschlichkeit
Vielleicht ist das, was uns als Mediator:innen am meisten auszeichnet, die Fähigkeit, achtsam zu bleiben – auch dann, wenn alles um uns herum immer schneller wird. KI kann viel: Sie kann strukturieren, formulieren, berechnen. Aber sie kennt keine Pause, kein Schweigen, kein Nachspüren.
Und genau hier kommt unsere Haltung ins Spiel. Wenn ich in einer Mediation den Mut habe, nicht sofort zu reagieren, sondern einfach kurz still zu sein, dann entsteht Raum. Raum für das, was unausgesprochen bleibt. Dieser Raum ist zutiefst menschlich – und bleibt unersetzbar.
In der digitalen Welt ist Achtsamkeit vielleicht das neue Gegengewicht zur Effizienz. Verantwortung heißt dann: Ich nutze Technik, aber sie nutzt nicht mich. Ich lasse mich inspirieren, aber nicht leiten.
d) Eine Haltung für morgen: Digital und menschlich zugleich
Ich wünsche mir, dass Mediator:innen zu Brückenbauer:innen zwischen Mensch und Maschine werden. Dass sie einerseits Jugendlichen und jungen Mediator:innen zeigen, wie man KI sinnvoll und reflektiert im Sinne eines Ziels nutzt. Dass sie aber auch mit ihnen darüber sprechen, was Empathie bedeutet, warum Worte Macht haben, und wie Verantwortung im digitalen Raum aussieht.
So entsteht Zukunftsfähigkeit – nicht durch Technik allein, sondern durch Werte, Bewusstsein und Dialog.
Vielleicht ist das sogar die schönste Aufgabe, die uns in diesem Wandel zufällt: Nicht gegen KI zu kämpfen, sondern sie so zu gestalten, dass sie unsere menschlichen Stärken sichtbar macht.
Zwischenfazit:
KI kann uns anregen, beschleunigen, entlasten – aber sie darf nie bestimmen, was richtig ist. Unsere Haltung entscheidet, ob KI zum Werkzeug der Verständigung oder zum Filter der Realität wird. Und wenn wir diese Haltung leben – achtsam, empathisch, kritisch und offen – dann bleibt der Mensch, trotz aller Technik, im Mittelpunkt.
Mediation braucht Kopf, Herz und kluge Tools
Ich glaube, wir stehen an einem spannenden Punkt. Künstliche Intelligenz fordert uns als Mediator:innen heraus – aber nicht, weil sie uns ersetzt, sondern weil sie uns spiegelt. Sie zeigt uns, was unser Beruf im Innersten ausmacht: das Menschliche.
Je mehr ich mit KI arbeite, desto bewusster ist mir, dass die wahren Stärken von Mediation jenseits aller Technik liegen.
Sie liegen im Zuhören ohne Absicht, im Aushalten von Pausen, im gemeinsamen Suchen nach Sinn. Und doch kann KI etwas beitragen – nämlich Klarheit, Ordnung, Struktur. Sie kann uns Zeit schenken, die wir dann wieder in Beziehung investieren können.
Kopf: Wissen, Analyse, Struktur
Dafür ist KI gemacht. Sie kann Zusammenhänge erkennen, Sprache vereinfachen, Informationen sortieren. In der Mediationspraxis bedeutet das: weniger Papierchaos, schnellere Vorbereitung, klarere Dokumentation. Gerade in Schulen, wo Mediation oft „nebenbei“ läuft, kann das eine echte Erleichterung sein. Wenn KI uns Routinearbeit abnimmt, bleibt mehr Raum für das, was wir nicht delegieren können – das Denken, das Hinterfragen, das Einfühlen.
Herz: Beziehung, Empathie, Vertrauen
Hier endet die Reichweite der KI – und hier beginnt unsere. Eine Maschine kann freundlich formulieren, aber keine echte Verbindung schaffen. Sie kennt keine Unsicherheit, kein Mitfühlen, kein inneres Zögern.
In jedem Konflikt gibt es Momente, in denen nicht das Gesagte zählt, sondern das Gefühl, gesehen zu werden. Wenn ein Schüler nach langem Schweigen plötzlich den Blick hebt. Wenn eine Lehrkraft in Tränen ausbricht, weil sie sich überfordert fühlt. Wenn zwei Elternteile nach Monaten wieder einen gemeinsamen Satz finden.
Das sind die Augenblicke, die kein System erfassen kann – weil sie jenseits der Worte liegen.
Kluge Tools: Bewusst genutzt, nicht blind vertraut
KI ist kein Allheilmittel, aber sie kann ein Werkzeug sein – wenn wir sie mit Haltung einsetzen. Mit Transparenz: Wir sagen, wenn wir sie nutzen. Mit Bewusstsein: Wir prüfen, ob sie uns wirklich hilft. Mit Grenzen: Wir schützen Vertraulichkeit und Menschlichkeit.
So wird aus Technik ein Partner – nicht ein Ersatz. Ein Werkzeug, das uns stärkt, statt uns zu steuern.
Abschließender Gedanke
Mediation ist und bleibt eine sensible Arbeit mit Menschen.
KI kann uns inspirieren, erinnern, entlasten – aber das Herzstück der Arbeit bleibt in uns.
Unsere Empathie, unsere Haltung, unser Blick für Zwischentöne.
Vielleicht ist das die schönste Botschaft in dieser digitalen Zeit:
Je klüger die Maschinen werden, desto kostbarer wird das Menschliche.
Wie vielleicht nicht weiter verwunderlich, sind einige Teile dieses Blogartikels von der KI ausformuliert worden. Ich habe die Gedanken vorstrukturiere, gesammelt, geordnet und als Stichworte eingegeben. Und geschrieben wurden sie von der KI. Hättest du das gemerkt?
Macht es dir etwas aus, dies zu wissen? Dass zwar die Gedanken, aber manche Worte nicht von mir sind? Schreib gerne in die Kommentare, ich bin gespannt …
sagt Christa 🎉✨


