AI-Slop überflutet das Netz. In einer Online-Welt, in der Geld mit Aufmerksamkeit verdient wird, verbreiten Fake-User Mist in Kommentarspalten, und vergiften Diskussionen. KI hat das alles massiv beschleunigt – und macht es viel schwerer, AI-Slop zu erkennen.
Heute besteht etwa die Hälfte des Traffics aus Bots – meistens zu destruktiven Zwecken. Mittelmäßige Inhalte zu produzieren war nie leichter: LinkedIn, das schwarze Loch der Belanglosigkeit, seichte Videos für Kinder, die gerade fesselnd genug sind, um sie zu hypnotisieren und ihre Aufmerksamkeit zu fritirien, oder seelenlose Bücher auf Amazon. KI-Musik drängt in Streamingplattformen.
Google-AI fasst Websites zusammen, statt ihnen Besucher zu schicken. Auf Youtube posten neue Kanäle ständig Videos mit KI-generierten Thumbnails, Stimmen und Skripten. True Crime, Video-Essays, Wissenschaft – kein Bereich ist sicher.
Wir sind im goldenen Zeitalter des seelenlosen AI-Slop. Und leider wird echte, kreative menschliche Arbeit genutzt, um diese KI-Modelle zu trainieren. Jeder Reddit-Kommentar, jedes YouTube-Video, jede Zeichnung auf DeviantArt – verkauft an KI-Firmen.
Oder direkt gestohlen. Ohne Anerkennung oder Bezahlung der eigentlichen Urheber. In einem Ausmaß, das kaum zu verhindern ist und schon jetzt die Arbeit vieler Kreativer gefährdet, während KI-Unternehmen daran verdienen.
So traurig das ist – noch schlimmer ist, dass generative KI das Potenzial hat, das Internet irreversibel zu zerstören. Weil es immer schwieriger wird, zu erkennen, was wahr ist. Anfangs sah KI toll aus!
Ein Kurzgesagt-Video beginnt mit einer Basisrecherche die in ein Skript verwandelt wird und dann intensiv von 2- 3 Personen gefactchecked wird. Wir versuchen, alles mit vertrauenswürdigen wissenschaftlichen Quellen zu belegen. Dann holen wir 1–3 Experten für Input und Kritik dazu.
Insgesamt rund 100 Stunden Arbeit. Natürlich machen wir Fehler oder vereinfachen zu stark und man kann mit unseren Schlussfolgerungen auch nicht immer einverstanden sein. Wir sind schließlich Menschen.
Aber unser Prozess ist gründlich und nach einem Jahrzehnt wissen wir, was wir tun. Als KI aufkam, waren wir begeistert. Ein mechanisches Gehirn, das superschnell Infos sammelt?
Großartig! Es begann mit dem Faktencheck. Wir erwarteten keine Perfektion – aber es war viel schlimmer, als gedacht Selbstsicher falsch - KI ist SO schlecht darin Wir werden unsere Erfahrungen aus mehreren Projekten und Monaten in einem Fake-Projekt zusammenfassen: Ein Video darüber, warum Braune Zwerge die schlimmsten sind und sich schämen sollten.
Wir besorgenten uns Pro-Accounts der gängigen KI-Modelle und starteten mit Deep-Research-Tools, um Infos über diese gescheiterten Sterne zu sammeln. Und wow: Dutzende Seiten mit Zusammenfassungen, einzigartigen Informationen und Links zu Quellen! Dann sahen wir genauer hin.
Über 80 % der Fakten waren ziemlich solide und wir konnten rekonstruieren, woher sie stammten. Wikipedia, wissenschaftliche Paper, seriöse Artikel. Und der Rest?
Es waren tolle Sachen dabei, z. B. die Geschwindigkeit von Superstürmen auf Braunen Zwergen, ihr Inneres oder wie enttäuscht ihre Mütter sind.
Aber wir wussten nicht, woher die KI diese Infos hatte. Nicht automatisch verdächtig – die Modelle beinhalten schließlich fast das gesamte Internet und alle Bücher. Also haben wir Experten gefragt und die haben genau diese Fakten angemerkt und uns gefragt, woher wir sie haben.
Um uns zufriedenzustellen, hatte die KI Fakten erfunden oder übertrieben um braune Zwerge interessanter zu machen, als sie tatsächlich sind. Wie ein schlechter Journalist, der Details erfindet, um eine Story besser wirken zu lassen. Jetzt wollten wir mehr wissen, also prüften wir die scheinbar solideren Quellen.
Eine war ein Artikel von einer Nachrichtenseite, der angeblich von einem Journalisten geschrieben wurde. Die Struktur war vertraut und las sich, sicherlich rein zufällig, so als hätte ein Mensch die KI-Wortwahl leicht verändert. Ein Tool zur Erkennung von KI-Texten ergab 72 % Übereinstimmung.
Also ein KI-Artikel ohne Quellen, genutzt als vermeintlich glaubhafte Basis für KI-Recherche. Kein Wunder – 2025 gibt es bereits weit über 1200 bestätigte KI-Nachrichten-Seiten, die massenhaft KI-generierte Desinformation und falsche Behauptungen verbreiten. Dieser Mix aus echtem, dubiosem und erfundenem Wissen führt zu wirklich schlampigen KI-Schlussfolgerungen: Sie klingen stark, sind aber oft Halbwahrheiten oder Verdrehungen.
Nun gut. Wir haben gerettet, was ging und fingen von vorn an. Und dann passierte es: Ein paar Wochen später sahen wir zufällig ein Video über einen braunen Zwerg, das von einem relativ neuen Kanal veröffentlicht wurde.
Es hatte hunderttausende Views, tolles Bildmaterial, einen guten Schnitt! Aber: Die Struktur kannten wir. Und siehe da – alle Fakten, die wir als unzuverlässig oder KI-erfunden markiert hatten, waren drin.
Hier beginnt der Tod des Internets. Jetzt existiert eine "solide" Quelle mit Fehlinformation über Braune Zwerge. Wenn die nächste KI die gleiche Recherche macht, findet sie dieses Video mit vielen Aufrufen, und die Fehlinformation wird zur Wahrheit.
Schon vor KI war es schwer, Ursprünge von Fakten zu finden. Schau dir unser Video über eine 100 Jahre alte Lüge an. Mit zunehmender Nutzung von KI könnte es unmöglich werden, zu wissen, was wahr ist und was nicht.
Die schädlichste aller Lügen Das Problem ist, dass KI korrekt genug ist, um super smart zu wirken und wie unglaublich selbstbewusst sie dabei falsch liegt. Sie lügt dir beiläufig ins Gesicht, oft sehr subtil. Und wenn man sie ertappt, gibt sie es sofort zu und schwört Besserung.
Und tut es doch wieder. So wortgewandt aktuelle Sprachmodelle auch klingen, niemand ist zu Hause. Keine höhere Intelligenz, kein Bewusstsein spricht mit dir.
Aktuelle KI ist ein komplexer Hammer, der nicht weiß, was er tut oder was Nägel sind. Trotzdem lassen wir sie neue Regale in die Bibliothek menschlichen Wissens stellen. KI entwickelt sich schnell, vielleicht wird es besser.
Aktuell sieht es aber düster aus. Zu viele Menschen haben blindes Vertrauen in KI Studien haben die Sprache von Millionen wissenschaftlicher Artikel analysiert – vor und nach dem Aufstieg der Large Language Models. Das Ergebnis: Ein starker Anstieg von Wörtern, die KIs gern benutzen.
Ein erheblicher Teil der Arbeiten scheint also zumindest von KI unterstützt – meist ohne Hinweis. Und im Juli 2025 wurde entdeckt, das einige Forschende versteckte Nachrichten in ihre Arbeiten einflechten – in weißem Text oder winziger Schrift – um KIs dazu zu bringen, die Arbeit positiv zu bewerten und Fehler zu übersehen. Je sorgloser KI genutzt wird, desto unzuverlässiger wird die Bibliothek unseres Wissens.
Das bringt uns zum letzten Teil: Wie nutzen wir KI? Und wird Kurzgesagt das Zeitalter des AI Slop überleben? Tötet AI Slop Kurzgesagt und alle Künstler?
Im Netz gibt es nur eine wirklich wertvolle Ressource: Aufmerksamkeit. Geht es so weiter, wird billiger KI-Content, der gerade „okay“ genug ist, den Großteil der Aufmerksamkeit auf sich ziehen. Das könnte uns dümmer und weniger informiert machen, die Aufmerksamkeitsspanne weiter verkürzen, politische Gräben vergrößern und dazu führen, dass wir echte soziale Kontakte vernachlässigen.
Wenn KI die meiste Aufmerksamkeit frisst, werden Kanäle wie unserer unrentabel, müssen sich verkleinern oder selbst KI einsetzen, um zu bestehen. Dieses Spiel wollen wir nicht mitspielen. Wie werden wir KI nutzen?
Wie das „Ausrichten“-Werkzeug in Adobe Illustrator. Man kann Kästchen manuell ausrichten, Kästchen für Kästchen – oder man wählt alle aus und klickt auf „Ausrichten“ und hat es ist im Nu perfekt. Das Gleiche gilt für KI-Programmierwerkzeuge für Animationen oder die Verwendung als schnellere Google-Alternative.
KI ist ein hilfreiches Werkzeug, aber die Kreativität und Integrität liegt immer noch bei uns. Also liebes Internet, das ist unser Angebot: Kurzgesagt ist von Menschen für Menschen gemacht und das wird so bleiben. Wir werden gut recherchierte Inhalte machen und viel Zeit und unsere menschliche Kreativität in Illustrationen und Animationen investieren.
Wir werden unsere kreative Seele in die Arbeit stecken und weiter Fakten prüfen und mit Experten besprechen, um Euch die seriösesten Informationen zu geben, die wir liefern können. Wenn wir Fehler machen, dann sind das unsere Fehler. Wir würden lieber aufgeben, als AI Slop zu produzieren.
Aber um weiterzumachen, brauchen wir Euren Support.