KI & Ethik

Datenethik im Sozialwesen: Wenn Effizienz die Beziehung berührt

Von Thomas Silkjær4 Min. Lesezeit

Wenn KI Menschen im Sozialwesen sortiert, lautet die Frage nicht nur, ob das effizient ist — sondern ob es den menschlichen Blick ersetzt oder ergänzt. Ein Algorithmus sieht Felder in einem Formular. Eine Fachkraft vor Ort sieht die ungeöffneten Briefe auf dem Küchentisch.

Eine Mutter sitzt im Wartezimmer mit einer kalten Tasse Kaffee. Ein Algorithmus hat ihren Fall eingeschätzt. Das System sagt, sie sei „geringes Risiko“. Sie bekommt weniger Hausbesuche. Drei statt fünf. Der Algorithmus hat ihre Antworten verrechnet: Alter, Einkommen, Familienstand, Anzahl der Kinder.

Aber der Algorithmus weiß nicht, dass ihr Partner gerade ausgezogen ist. Er weiß nicht, dass sie seit drei Wochen nicht geschlafen hat. Er weiß nicht, dass sie im Wartezimmer sitzt und sich nicht erinnert, wann sie zuletzt mit einem Erwachsenen gesprochen hat.

Was wir meinen, wenn wir „KI im Sozialwesen“ sagen

KI im Sozialwesen ist nicht eine Sache. Sie reicht von Triage-Systemen über Entscheidungsunterstützung bis zu Algorithmen, die Risiken einschätzen. In diesem Artikel geht es um die Systeme, die beeinflussen, wer Hilfe bekommt — und wie viel. Nicht Chatbots, sondern die Algorithmen, die Menschen sortieren.

Das Versprechen der Effizienz

KI kann mehr Fälle schneller bearbeiten. Das ist das Versprechen. Und es ist real. In einer Welt mit knappen Ressourcen — weniger Fachkräften vor Ort, längeren Wartelisten, knapperen Budgets — ist es verlockend, einen Algorithmus sortieren zu lassen. Wer braucht am dringendsten Hilfe? Wer kommt allein zurecht?

Das Problem ist nicht die Effizienz an sich. Das Problem entsteht, wenn „schneller“ mit „besser“ verwechselt wird. Wenn die Einschätzung des Algorithmus die menschliche Begegnung ersetzt, statt sie zu ergänzen.

Der dänische Datenethikrat (Dataetisk Råd) hat in seiner Arbeit zu KI im Gesundheitswesen auf das Risiko hingewiesen: Wenn KI-Systeme im Sozialwesen ohne ausreichende Transparenz und Erklärbarkeit eingesetzt werden, verlieren Bürger:innen die Möglichkeit, eine Einschätzung, die ihr Leben prägt, zu verstehen — und ihr zu widersprechen.

Neugierig auf dich selbst?

9 Fragen. 2 Minuten. Kein Login.

Was der Algorithmus nicht erfasst

Eine Fachkraft, die im Wohnzimmer sitzt, spürt etwas, das ein Formular nicht messen kann. Sie sieht die ungeöffneten Briefe auf dem Küchentisch. Sie hört das Zögern in der Stimme. Sie merkt, dass das Kind die Mutter ansieht, bevor es einen Keks nimmt.

Der Algorithmus sieht Felder in einem Formular. Er sieht Familienstand, nicht Einsamkeit. Postleitzahl, nicht Druck. Anzahl der Besuche, nicht ihre Qualität.

Das heißt nicht, dass Daten unbrauchbar sind — im Gegenteil. Daten können Tendenzen erkennen, Ressourcen lenken und Muster sichtbar machen, die sonst verborgen blieben. Der Unterschied liegt darin, wie Daten genutzt werden. Ein System, das Menschen anhand von Datensätzen in einer Akte sortiert, ist etwas anderes als ein System, das Familien Sprache gibt für das, was sie selbst erleben. Das eine ersetzt den Blick. Das andere schärft ihn.

Wer trägt Verantwortung, wenn der Algorithmus irrt?

Hier landen wir bei einer der härtesten Fragen. Wenn eine Fachkraft vor Ort einschätzt, dass eine Familie zurechtkommt, und sich später herausstellt, dass sie sich geirrt hat, ist die Verantwortung klar. Es ist ihre Fachlichkeit, ihre Einschätzung, ihre Verantwortung.

Aber wenn ein Algorithmus dieselbe Einschätzung trifft — wer trägt dann die Verantwortung? Die Entwicklerin, die das Modell gebaut hat? Die Kommune, die das System gekauft hat? Die Leitung, die entschieden hat, es zu nutzen? Oder die Mitarbeiterin, die ihm vertraut hat?

Die Verantwortungsfrage ist nicht gelöst. Und das sollte uns beunruhigen. Nicht, weil KI gefährlich wäre — sondern weil unklare Verantwortung gefährlich ist, wenn es um verletzliche Menschen geht.

Welche Werte sind eingebaut?

Jedes KI-System beruht auf Entscheidungen. Welche Daten zählen am stärksten? Was gilt als „Risiko“? Was gilt als „kommt zurecht“?

Diese Entscheidungen sind nicht neutral. Sie spiegeln Werte. Und die Frage ist welche: Effizienz? Gleichheit? Einsparungen? Vorbeugung?

Der dänische Datenethikrat weist darauf hin, dass die Werte in KI-Systemen für die Betroffenen oft unsichtbar sind. Eine Mutter, die weniger Besuche bekommt, weiß nicht, welches Modell das entschieden hat. Sie weiß nur, dass die Fachkraft nicht mehr so oft kommt.

Transparenz heißt nicht nur, Algorithmen zu veröffentlichen. Sie heißt, die zugrunde liegenden Entscheidungen sichtbar und verständlich zu machen — für die Menschen, die davon betroffen sind.

Vom System zum Küchentisch

Es ist leicht, Datenethik abstrakt zu diskutieren. Als etwas, das Systeme und Regulierungen betrifft. Aber am Ende landet es an einem Küchentisch. Bei einer Mutter. Einem Vater. Einem Kind.

Die Frage ist nicht, ob KI im Sozialwesen genutzt werden soll. Das passiert längst. Die Frage ist, wie es sich anfühlt, von einer Maschine eingeschätzt zu werden — und ob das den menschlichen Blick ergänzt oder ersetzt.

KI sollte nicht allein stehen, wenn Entscheidungen viel ausmachen. Sie kann sortieren und priorisieren. Aber die Begegnung, in der jemand dich tatsächlich sieht, lässt sich nicht automatisieren. Sie braucht einen Menschen mit Zeit — und ein System, das diese Zeit gibt.

Quellen