Wenn KI anfängt, den Menschen aus dem Text zu drängen
Warum aus Unterstützung schnell ein unsichtbarer Eingriff werden kann.
Ein aktueller Bericht von The Verge zeigt ein Problem, das für mich immer größer wird: Google testet offenbar, Überschriften in der Suche per KI umzuschreiben - also Überschriften, die ursprünglich von Redaktionen geschrieben wurden. Laut The Verge tauchten dabei mehrfach Titel in der Google-Suche auf, die die Redaktion selbst nie geschrieben hat und die teils sogar die Aussage oder den Ton der Originalüberschrift verändert haben. Google selbst spricht gegenüber The Verge von einem kleinen und engen Experiment..
Genau da wird es für mich kritisch.
Denn eine Überschrift ist nicht einfach nur Verpackung. Sie ist oft ein Teil der eigentlichen Arbeit. Sie ist Auswahl, Ton, Haltung, Gewichtung und manchmal auch Verantwortung. Wenn eine Redaktion oder ein einzelner Autor eine Headline schreibt, dann ist das nicht irgendein austauschbarer Textbaustein, den man beliebig ersetzen kann. Es ist ein Teil des journalistischen oder kreativen Ausdrucks.
The Verge beschreibt mehrere konkrete Fälle, in denen Google eigene KI-generirte Varianten angezeigt haben soll. Ein Beispiel: Aus einer kritischen Überschrift über ein fragwürdiges KI-Tool wurde in der Suche eine stark verkürzte Version, die laut The Verge fast wie eine Empfehlung wirkte.
Die Überschrift vorher: “I used the ‘cheat on everything’ AI tool and it didn’t help me cheat on anything”
Die Überschrift von Google verändert: “‘Cheat on everything’ AI tool.”
Und genau das ist der Punkt:
Sobald KI in solche Bereiche eingreift, geht es nicht mehr nur um Effizienz. Dann geht es um Bedeutung.
KI ist als Werkzeug oft stark - aber nicht dort, wo Haltung zählt
Ich bin nicht grundsätzlich gegen KI. Ganz im Gegenteil.
Es gibt viele Bereiche, in denen KI als Tool wirklich hilfreich sein kann:
beim Zusammenfassen von Dingen, die man sonst vielleicht gar nicht lesen würde
bei Recherche und Korrekturlesen
beim Strukturieren von Informationen
beim Beantworten nerviger E-Mails
bei Routinen, die Zeit fressen, aber wenig echte kreative Substanz haben
Dafür ist KI oft stark. Und genau dort nutze ich sie auch gerne als Unterstützung.
Aber dort, wo es um echte Kreativität, um Einordnung, um Stil, um Blickwinkel und um menschliche Entscheidung geht, sehe ich sehr klare Grenzen.
Denn genau da entsteht häufig das, was man inzwischen überall sieht:
eine Art allgemeine Suppe.
Texte, die formal okay wirken. Texte, die flüssig klingen. Texte, die sauber strukturiert sind. Aber Texte, bei denen man nach wenigen Sätzen merkt, dass das Entscheidende fehlt: eine echte Perspektive.
Das Problem ist nicht nur schlechter Stil - das Problem ist Verlust von Herkunft
Wenn ich Artikel komplett von KI schreiben lasse, dann bekomme ich oft genau dieses Ergebnis. Alles ist irgendwie richtig, aber nichts hat Gewicht. Es fehlt das, was für mich wichtig ist: warum etwas relevant ist, wo die Spannung liegt, was man weglassen muss, welche Formulierung absichtlich so gewählt wurde und an welcher Stelle man sich bewusst nicht neutral ausdrückt, weil gerade darin die Einordnung steckt.
Das ist der Unterschied zwischen Information und Haltung.
Und genau deshalb finde ich die Entwicklung bei Google so problematisch. The Verge schreibt, dass Google damit nicht mehr nur Titel kürzt oder technisch anpasst, sondern in manchen Fällen eigenständig neue Formulierungen erzeugt. Google sagt zwar zugleich, dass ein mögliches späteres Produkt nicht zwingend mit einem generativen Modell laufen würde, hat aber laut Bericht nicht erklärt, wie man solche neuen Titel sonst erzeugen würde.
Für mich ist das ein Warnsignal.
Denn wenn Plattformen anfangen, nicht nur Inhalte zu sortieren, sondern auch deren Sprache umzuschreiben, dann verschiebt sich die Macht über Bedeutung noch weiter weg vom eigentlichen Autor.
Die nächste Stufe sehen wir schon längst auf Social Media
Das Ganze ist auch deshalb relevant, weil KI heute nicht im luftleeren Raum arbeitet.
Viele Menschen argumentieren inzwischen in Diskussionen mit Sätzen wie:
“Das hat ChatGPT gesagt.”
Was dabei oft vergessen wird:
Solche Systeme kommen nicht vom Himmel. Sie wurden mit öffentlichen Inhalten trainiert, mit Texten, Meinungen, Zusammenfassungen, Artikeln, Posts, Diskussionen, Marketing und leider auch mit viel Mittelmaß.
Das heißt: KI reproduziert nicht nur Wissen. Sie reproduziert auch die Struktur des öffentlichen Webs.
Und das hat Konsequenzen.
Wir sehen bereits, dass Unternehmen zunehmend in Reels, Shorts und andere Kurzformate investieren, die möglichst positiv über Produkte sprechen. Nicht nur, um Menschen direkt zu erreichen, sondern auch, weil solche Inhalte mittelbar Einfluss auf das haben können, was KI-Systeme später als relevant, glaubwürdig oder repräsentativ einordnen.
Mit anderen Worten:
Es geht längst nicht mehr nur darum, Menschen zu überzeugen.
Es geht auch darum, die zukünftige maschinelle Auswahl mitzuprägen.
Wenn alles zur Trainingsmasse wird, wird Herkunft wichtiger - nicht unwichtiger
Gerade deshalb finde ich es falsch, wenn die Rolle des Menschen im Text immer weiter verwischt wird.
Wenn eine KI eine Mail glättet, okay.
Wenn eine KI mir hilft, einen langen Report schneller zu erfassen, okay.
Wenn eine KI mir bei Recherche hilft, okay.
Aber wenn KI anfängt, journalistische Headlines umzuschreiben, Stil zu verwässern, Perspektiven zu glätten oder kreative Arbeit in etwas umzuwandeln, das nur noch effizient, aber nicht mehr eigen ist, dann verlieren wir genau das, was gute Inhalte eigentlich ausmacht.
Nicht nur Sprache.
Sondern Ursprung.
The Verge argumentiert in dem Artikel sehr deutlich, dass das Umschreiben von Headlines Journalismus weniger vertrauenswürdig machen kann - gerade in einer Zeit, in der Medien ohnehin unter Druck stehen und Vertrauen in Informationen bereits angegriffen wird.
Ich halte das für einen sehr wichtigen Punkt.
Denn wenn am Ende nicht einmal mehr klar ist, ob eine Überschrift wirklich vom Autor, von der Redaktion oder von einer Plattform stammt, dann wird das Verhältnis zwischen Leser, Quelle und Inhalt noch diffuser.
Mein Fazit
KI zu nutzen, gehört heute dazu. Sie ist Teil unserer Zeit, und als Werkzeug kann sie in vielen Bereichen sehr hilfreich sein - von Recherche über Zusammenfassungen bis hin zu lästigen Routineaufgaben.
Aber genau deshalb muss man auch verstehen, wie diese Systeme funktionieren. KI will nicht einfach nur helfen. Sie ist immer auch darauf ausgelegt, weiter genutzt zu werden. Inhalte werden deshalb oft so dargestellt, dass sie möglichst gut ankommen, möglichst bequem sind und möglichst selten Reibung erzeugen.
Genau darin liegt das Problem.
Denn in unserem Leben sollte es darum gehen, dass wir uns ausdrücken - nicht die KI sich durch uns ausdrückt. Gerade in kreativen Bereichen ist diese Grenze entscheidend. Wenn Texte, Bilder, Videos und Aussagen immer stärker von KI geglättet, umgeschrieben oder komplett erzeugt werden, geht nicht nur Stil verloren, sondern Herkunft, Verantwortung und am Ende auch Vertrauen.
Besonders sichtbar ist das inzwischen im Foto- und Videobereich. Die Grenze zwischen echt, erzeugtt und manipuliert ist heute oft schon so verwischt, dass viele Menschen gar nicht mehr sicher erkennen können, was überhaupt passiert ist und was nicht. Das ist nicht nur ein kreatives Problem, sondern ein gesellschaftliches.
Deshalb braucht es dringend mehr als nur Begeisterung für neue Tools. Es braucht Kennzeichnung, Regulierung, Verantwortung der Plattformen und ein deutlich stärkeres Bewusstsein dafür, wie KI Inhalte formt und beeinflusst.
KI sollte ein Werkzeug bleiben.
Nicht der neue unsichtbare Autor hinter allem.



