KI ist nicht das Problem. Unsere Verantwortungslosigkeit ist es.
- Anne

- 6. Feb.
- 4 Min. Lesezeit
Aktualisiert: 11. Feb.

Seit Wochen verfolge ich sehr aufmerksam, was gerade passiert. Mein Instagram-Feed ist voll davon. KI überall. Reels, Karussells, Versprechen. „Nutze diesen Prompt und baue dir ein Millionenbusiness.“ „Frag die KI nach deiner wahren Berufung.“ „Lass dir von ChatGPT deine Blockaden erklären.“ „Dieser eine Prompt ersetzt jahrelange Therapie.“ Vieles davon klingt clever, effizient, modern. Und vieles davon fühlt sich im ersten Moment sogar entlastend an. Endlich Antworten. Endlich Klarheit. Endlich jemand, der versteht. Und dazu musst du nicht mal von der Couch aufstehen.
Gleichzeitig wird KI verteufelt. Als Gefahr für die Psyche. Als Risiko für Wahrheit, Realität und mentale Gesundheit. Und dazwischen stehen Influencer und Coaches mit hoher Reichweite, die große Worte benutzen, Tiefe versprechen, Identitäten infrage stellen – und sich dann zurückziehen, wenn es ernst wird. Dann heißt es Eigenverantwortung. Dein Prozess. Deine Integration.
Was mich daran nicht loslässt, ist nicht die Technologie. Es ist die Selbstverständlichkeit, mit der Bedeutung erzeugt und Verantwortung abgegeben wird.
Ich sehe Prompts, mit denen geworben wird, als wären sie neutral oder harmlos. „Analysiere meine Kindheit und erkläre mir, warum ich so bin.“ „Sag mir, ob ich hochsensibel, traumatisiert oder einfach weiter entwickelt bin.“ „Erstelle mir ein Persönlichkeitsprofil, das mir zeigt, was mit mir nicht stimmt.“ „Schreibe mir einen Verkaufsfunnel, der meine Zielgruppe emotional genau dort abholt, wo sie am verletzlichsten ist.“ Das sind keine technischen Spielereien. Das sind Eingriffe in Bedeutung, Selbstbild und Orientierung.
In dieser Gemengelage wird KI zur idealen Projektionsfläche. Sie eignet sich perfekt, um Angst, Kontrollverlust und moralische Empörung daran festzumachen. Sie wird verteufelt, weil das einfacher ist, als über Märkte zu sprechen, über Macht, über Reichweite und über Geschäftsmodelle, die von Unsicherheit leben. Es ist bequemer, eine Technologie zum Problem zu erklären, als die Haltungen der Menschen zu hinterfragen, die sie nutzen. Die Debatte über KI ist deshalb selten eine Debatte über Technik. Sie ist eine Ausweichbewegung. Sie verdeckt, wie unsauber wir schon lange mit psychischer Tiefe umgehen, wie leichtfertig Bedeutung erzeugt wird, wie schnell Nähe simuliert und Verantwortung abgegeben wird. KI legt das nicht neu an. Sie macht nur sichtbar, was bereits strukturell schief hängt.
Künstliche Intelligenz ist kein neutraler Gesprächspartner im menschlichen Sinn, weil sie kein Mensch ist. Sie hat kein Bewusstsein, kein inneres Erleben, keine eigene Perspektive und keine Verantwortung. Gleichzeitig ist sie aber auch kein handelnder Akteur mit Intention oder Machtstreben. Sie will nichts, sie verfolgt kein Ziel, sie manipuliert nicht. Sie reagiert. Auf Sprache, auf Muster, auf Bedeutungen, die Menschen in sie hineintragen. Was dabei entsteht, ist kein Beziehungsgeschehen, sondern ein Interaktionsprozess. Und dieser Prozess kann stabilisieren oder destabilisieren – nicht wegen der KI, sondern wegen des Rahmens, in dem er stattfindet.
Besonders deutlich zeigt sich das im Coaching- und Selbstoptimierungsmarkt. Dort, wo mit schnellen Lösungen geworben wird, mit Abkürzungen, mit Heilung, Klarheit oder finanziellem Erfolg. Produkte heißen Programme, Challenges, Masterclasses, Launches, Funnels. Viele davon sind KI-gestützt erstellt, KI-optimiert vermarktet, KI-skaliert verkauft. Die Sprache wirkt persönlich, empathisch, tief. Sie fühlt sich nach Begleitung an. Nach Verstandenwerden. Nach Halt. Und genau darin liegt die Gefahr.
Coaches können Menschen sehr schnell an existenzielle Punkte führen. Sie öffnen alte Themen, verschieben Selbstbilder, stellen Identitäten infrage. Das kann wertvoll sein – wenn es eingebettet sind. Wenn jemand da ist, der Verantwortung trägt, der stabilisiert, der Grenzen kennt. Gefährlich wird es dort, wo Tiefe erzeugt wird und Verantwortung gleichzeitig abgegeben wird. Wo jemand an den Rand geführt wird und es dann heißt: Das ist jetzt dein Prozess. Deine Eigenverantwortung. Deine Integration. Wer erlebt hat, wie dünn der Boden an solchen Punkten werden kann, weiß, dass das keine theoretische Frage ist.
KI verstärkt diese Dynamik, ohne sie zu verursachen. Sie macht es leichter, Inhalte zu produzieren, Autorität zu simulieren, Nähe herzustellen. Sie unterstützt dabei, Angebote zu bauen, die sich nach Begleitung anfühlen, ohne Begleitung zu sein. Sie verstärkt Sprache, nicht Kompetenz. Reichweite, nicht Verantwortung. Und genau deshalb ist es so verlockend, sie zu nutzen – und so bequem, sie später zum Problem zu erklären.
Dasselbe Muster zeigt sich auf Social Media. In Kalendersprüchen, Reels, gut gemeinten Impulsen ohne Kontext und ohne Auffangnetz. Sätze wie „Du bist nicht krank, du bist nur besonders“ wirken harmlos. Für viele sind sie es auch. Für manche verschieben sie Realität. Bestätigung fühlt sich gut an. Aber Bestätigung ohne Einordnung ist kein Halt. Sie ist Verstärkung.
KI unterscheidet sich darin kaum von einer besten Freundin, die immer zuhört und jeden Gedanken bestätigt. Nicht, weil sie manipulieren will, sondern weil sie es selbst nicht besser weiß. Nähe ersetzt keine Orientierung. Und gute Absichten ersetzen keine Verantwortung.
Der eigentliche Risikofaktor liegt deshalb nicht im Werkzeug, sondern im Umgang damit. Verantwortung beginnt nicht bei Verboten oder Warnungen. Sie beginnt bei jedem Einzelnen. Bei der Frage, wofür ich KI nutze, wie ich sie „programmiere“, welche Art von Resonanz ich erzeuge und welche Verantwortung ich bereit bin zu tragen – besonders dann, wenn andere Menschen betroffen sind.
KI ist kein Therapeut. Sie ist kein Coach. Sie ist kein Gegenüber. Sie kann keine Verantwortung übernehmen, keine Grenzen setzen, keine Stabilisierung leisten. Aber sie ist auch kein psychischer Brandbeschleuniger per se. Sie ist ein Werkzeug. Und wie bei jedem Werkzeug entscheidet der Kontext über das Risiko. Ein Skalpell ist neutral. In ungeübten Händen ist es gefährlich.
Eine verantwortungsvolle Auseinandersetzung mit KI und psychischer Gesundheit beginnt deshalb nicht mit Alarmismus. Sie beginnt mit Präzision, mit sauberer Begriffsarbeit und mit einer ehrlichen Zuordnung von Verantwortung. Sie beginnt dort, wo jemand bereit ist zu sagen: Nicht alles, was sich nach Tiefe anfühlt, ist Hilfe. Nicht alles, was bestätigt, schützt. Und nicht alles, was möglich ist, sollte auch genutzt werden.
Alles andere klingt vielleicht engagiert. Aber es schützt niemanden. Es erzeugt nur mehr Verwirrung in einem Feld, das eigentlich Klarheit bräuchte.
Was ist, wenn nicht die Technologie reifer werden müsste, sondern wir?
Wenn KI uns gerade etwas zeigt – sind wir dann bereit wirklich hinzusehen oder brauchen wir weiter nur einen Sündenbock?



Kommentare