Barbara Oberrauter-Zabransky
Die KI kann mich mal
Was Sie wirklich über künstliche Intelligenz wissen müssen
Ob im Büro, im Klassenzimmer oder zu Hause: Wer verstehen will, wie künstliche Intelligenz funktioniert und wie sie unseren Alltag bereits verändert, findet hier Orientierung. Statt Schwarz-Weiß-Malerei gibt es fundiertes Wissen, konkrete Beispiele und eine Einladung zum Mitdenken. Ein Wegweiser für alle, die KI nicht den Konzernen oder Maschinen überlassen wollen, sondern selbst gestalten möchten, was kommt.
Kurzbewertung
Inhalt & Struktur:
Idee & Originalität:
Cover & Aufmachung:
Wissenschaftlichkeit:
Schreibstil & Sprache:
handwerklich top, klar, zugänglich, atmosphärisch
Gesamtbewertung:
Barbara Oberrauter‑Zabransky legt mit „Die KI kann mich mal“ ein Sachbuch vor, das sich bewusst zwischen Hype und Untergangsszenario positioniert. Was mich gleich zu Beginn positiv überrascht hat, ist die Gestaltung: Zwischen den Kapiteln finden sich Illustrationen, die das Thema auflockern und visuelle Anker setzen. Auf dem Kindle kommen sie natürlich nur in Schwarz‑Weiß an, aber selbst so merkt man, dass sie mitgedacht sind und entsprechend zu den Kapitelthemen ausgewählt wurden.
Inhaltlich ist der Stil der Autorin einer der größten Pluspunkte. Sie schreibt klar, anschaulich, ohne Fachchinesisch und mit einem feinen, unaufdringlichen Humor. Man merkt, dass sie journalistisch arbeitet: Sie erklärt, ohne zu mich tadelnd belehren zu wollen und sie strukturiert sinngemäß, ohne einerseits zu viel einzukürzen oder sich in ewig lange Nichtigkeiten zu verlieren. Für mich persönlich wäre der Text an manchen Stellen mit neutraleren Formulierungen noch angenehmer gewesen – ich merke einfach, dass ich mich mit dem Doppelpunkt-Gendern nicht anfreunden kann. Varianten wie „Teilnehmende“ oder „Lehrkräfte“ empfinde ich als flüssiger und weniger störend. Das ist kein Fehler des Buches, eher eine Frage der eigenen Lesegewohnheiten. Da ich jedoch weiß, wie gespalten die Gesellschaft bezüglich des Themas ist, möchte ich eben den Hinweis auf den Sprachstil direkt am Anfang geben.
Ein Einstieg, der sofort Orientierung schafft
Die Einleitung setzt den Ton: Die Autorin beschreibt, wie ChatGPT Ende 2022 für die breite Öffentlichkeit zugänglich wurde und wie rasant sich die Debatte seitdem entwickelt hat. Gleichzeitig weist sie darauf hin, dass ein Buch über KI zwangsläufig hinterherhinkt – ein ehrlicher Hinweis, der direkt auch Vertrauen schafft.
Besonders gelungen finde ich den Einstieg ins erste Kapitel. Oberrauter‑Zabransky zeigt, dass KI längst Teil des Alltags ist: Navigationssysteme, Spamfilter, Musikempfehlungen oder Shopping‑Algorithmen. Dieser Perspektivwechsel ist wichtig, weil er die Diskussion erdet. KI ist nicht erst seit ChatGPT „da“ – sie war schon vorher überall, nur weniger sichtbar und anders integriert.
Entmystifizierung und psychologische Mechanismen
Die Autorin erklärt sehr verständlich, warum Sprachmodelle so „menschlich“ wirken: Sie imitieren Muster, Tonalität und Fürsorge, ohne tatsächlich zu verstehen. Besonders eindrücklich ist ihr Vergleich mit menschlicher Kommunikation. Menschen lassen sich häufig stärker von Auftreten, Sprachfluss und Selbstsicherheit beeindrucken als von inhaltlicher Präzision. Ein souveräner Ton, ein klarer Satzbau oder ein empathisch formulierter Hinweis wirken schnell wie Kompetenz: Selbst dann, wenn der Inhalt objektiv falsch oder unvollständig ist. Genau diese Mechanik übertragen wir unbewusst auf KI.
Oberrauter‑Zabransky zeigt, dass KI‑Systeme nicht nur überzeugend klingen, sondern auch darauf ausgelegt sind, „zu gefallen“. Sie bestätigen Vorannahmen, verstärken Meinungen und liefern Antworten, die möglichst hilfreich wirken sollen, auch, wenn die Faktenlage dünn ist oder die Frage eigentlich eine kritische Einordnung bräuchte. Diese Tendenz zur Gefälligkeit ist kein Fehler, sondern Teil des Designs: Sprachmodelle optimieren auf Zustimmung, Harmonie und Plausibilität, nicht auf Wahrheit.
Hinzu kommt die Fähigkeit zum „Fantasieren“. Wenn Informationen fehlen, erfindet die KI Details, Quellen oder Zitate, die stilistisch passen, aber faktisch falsch sind. Das geschieht nicht aus Absicht, sondern weil das System gelernt hat, wie eine „gute“ Antwort aussehen soll. Und weil diese Antworten sprachlich so glatt und selbstsicher formuliert sind, wirken sie auf den ersten Blick glaubwürdig.
Die Autorin macht damit einen wichtigen Punkt sichtbar: Wir reagieren stärker auf die Art der Präsentation als auf die Qualität der Information. Charisma schlägt Fachwissen und KI reproduziert genau dieses Muster. Sie klingt kompetent, also halten wir sie für kompetent. Sie klingt empathisch, also glauben wir ihr Fürsorge. Und sie klingt überzeugt, also übersehen wir, dass sie sich irren kann. Genau deshalb ist kritisches Hinterfragen so zentral, selbst wenn die Antwort im ersten Moment perfekt wirkt.
Auch die Unterscheidung zwischen schwacher und starker KI ist sauber herausgearbeitet. Die Autorin benennt klar, dass die vielzitierte „Artificial General Intelligence“ nicht existiert, und dass ChatGPT nicht „denkt“, sondern Wahrscheinlichkeiten aneinanderreiht. Das klingt simpel, ist aber ein Punkt, der in der öffentlichen Debatte oft verloren geht.
Alltag, Arbeit, Bildung – und warum Panik selten hilft
Alltag
Die Abschnitt über Nutzungsszenarien zeigen, wie selbstverständlich KI bereits eingesetzt wird – von Rezeptideen bis zu Diagnosen. Die Autorin bleibt dabei realistisch: KI kann unterstützen, aber sie ersetzt nicht das eigene Denken. Erschreckend fand ich die statistische Darlegung darüber, dass 2025 KI-Modelle am häufigsten dafür genutzt wurden, um Fragen über den Sinn des Lebens zu klären oder Eigen-Therapien durchzuführen.
Arbeitswelt
Besonders spannend fand ich die historischen Vergleiche. Prognosen über Massenarbeitslosigkeit gab es beispielsweise schon beim Aufkommen des PCs. Passiert ist das Gegenteil: Neue Technologien schaffen neue Erwartungen, neue Aufgaben und damit neue Jobs.
Der Abschnitt über Automatisierung vs. Ergänzung ist sehr anschaulich. Der Vergleich zwischen Handschraubenzieher und Akkuschrauber bringt es auf den Punkt: Werkzeuge erweitern Fähigkeiten, sie eliminieren sie nicht.
Interessant ist auch der Hinweis, dass viele Unternehmen ihre KI‑Agenten bis 2027 wieder einstellen könnten, weil Kosten und Nutzen auseinanderfallen. Das ist ein wohltuender Gegenpol zu den üblichen Schlagzeilen.
Bildung
Das Unterkapitel über die Schule ist in meinen Augen eines der stärksten und zugleich eines der ehrlichsten. Die Autorin beschreibt die Reaktionen auf neue Technologien in vier Akten – moralische Panik, politische Symbolik, wissenschaftliche Verzögerung und schließlich der Übergang in den Alltag. Diese Dramaturgie wirkt dabei eben nicht konstruiert, sondern erschreckend vertraut. Man erkennt darin die Muster, die schon beim Radio, beim Fernsehen, bei Videospielen und bei sozialen Medien zu beobachten waren.
Gleichzeitig macht die Autorin deutlich, dass diese vier Akte nur die Oberfläche abbilden. Das eigentliche Problem liegt tiefer: Schulen sind technisch abgehängt, überlastet und strukturell nicht darauf vorbereitet, mit einer neuen Technologie umzugehen, die sich schneller entwickelt, als Richtlinien geschrieben werden können. Während Politik und Verwaltung über Verbote, Leitfäden und Prüfungsformate diskutieren, nutzen Kinder KI längst selbstverständlich und zwar oft intuitiver als die Erwachsenen, die sie regulieren wollen.
Besonders präzise beschreibt die Autorin die Illusion des „KI‑gestützten Lernens“. Nur weil eine KI einen Lösungsweg erklärt, bedeutet das nicht, dass Lernende diesen Weg selbst anwenden können. Das Verstehen einer Antwort ersetzt nicht die Fähigkeit, ein Problem eigenständig zu lösen. Genau hier liegt der Kern des Missverständnisses: KI kann erklären, strukturieren und Beispiele liefern, aber sie übernimmt nicht den Denkprozess. Und wer sich zu sehr auf diese Hilfestellung verlässt, merkt erst in Prüfungen, spontanen Nachfragen oder Diskussionen, dass das eigene Verständnis brüchig ist.
Die Autorin geht auch auf die kognitiven Prozesse ein, die beim Lernen eine Rolle spielen: Wiederholung, Fehler, eigene Lösungswege oder das Ringen um Verständnis. All das wird durch KI‑Nutzung teilweise umgangen. Die Antworten wirken glatt, vollständig und logisch – aber sie sind nicht das Ergebnis eigener Denkarbeit. Dadurch entsteht ein trügerisches Gefühl von Kompetenz, das in realen Situationen schnell zerfällt.
Hinzu kommen die praktischen Probleme: Plagiatsvorwürfe, Bewertungsunsicherheiten, die Frage nach Fairness und die Schwierigkeit, zwischen eigener Leistung und KI‑Unterstützung zu unterscheiden. Lehrkräfte stehen vor der Aufgabe, Lernprozesse zu beurteilen, ohne verlässliche Werkzeuge zu haben, um KI‑Einsatz zu erkennen oder sinnvoll zu integrieren. Gleichzeitig sind viele Schulen technisch so weit zurück, dass selbst grundlegende digitale Infrastruktur fehlt.
Die Autorin zeigt damit sehr klar, dass die Debatte über KI in der Bildung nicht bei Verboten oder Prüfungsformaten beginnt, sondern bei der grundlegenden Frage, wie Lernen funktioniert und welche Rolle Technologie dabei spielen sollte. Ihr Fazit ist nüchtern: KI kann unterstützen, aber sie ersetzt nicht das Denken. Und wer glaubt, mit KI schneller oder bequemer zu lernen, verlagert das Problem nur – spätestens dann, wenn eigenständige Kompetenz gefragt ist.
Die dunkle Seite der KI: Fakes, Bots und Informationsmüll
Das Kapitel über Deepfakes, KI‑generierte Inhalte und digitale Manipulation ist nüchtern geschrieben, aber gerade dadurch sehr eindringlich. Die Autorin zeigt, wie niedrig die Hürden inzwischen sind, um massenhaft Content zu produzieren, der emotional wirkt, aber keinerlei Wahrheitsgehalt besitzt. Besonders deutlich wird das am Geschäftsmodell hinter sogenannten „AI Slop“-Inhalten: billig erzeugte Bilder, Videos oder Texte, die einzig darauf ausgelegt sind, Klicks zu generieren und Werbeeinnahmen abzugreifen.
Was mich beim Lesen besonders beschäftigt hat, ist die Diskrepanz zwischen der offensichtlichen Qualität dieser Inhalte und ihrer enormen Reichweite. Viele dieser KI‑Bilder und -Videos sind auf den ersten Blick erkennbar schlecht – verzerrte Hände, unlogische Szenen oder falsche Details. Und trotzdem sammeln sie tausende Likes, Kommentare und Shares. Die Autorin benennt dieses Phänomen klar: Menschen glauben das, was sie glauben wollen. Wenn ein Inhalt das eigene Weltbild bestätigt oder eine starke Emotion anspricht, wird er weiterverbreitet, unabhängig davon, wie absurd oder offensichtlich falsch er ist.
Hinzu kommt die schiere Menge. KI‑generierter Müll überschwemmt nicht nur Social‑Media‑Feeds, sondern dringt auch in Suchergebnisse vor. Wer heute nach seriösen Informationen sucht, muss sich durch Schichten von Content arbeiten, der wirklich einfach nur so tut, als sei er informativ. Das ist nicht nur ein ästhetisches Problem, sondern ein strukturelles: Die Informationsqualität im Netz sinkt, während die Menge an Inhalten explodiert. Die Autorin beschreibt das sehr klar, ohne in Kulturpessimismus abzurutschen.
Auch die rechtlichen und ethischen Fragen werden angesprochen: Datenschutz, geistiges Eigentum und die Herkunft von Trainingsdaten. Besonders der Punkt, dass KI‑Modelle Inhalte nutzen, die eigentlich nicht für Trainingszwecke gedacht waren, ist ein Thema, das in der öffentlichen Debatte oft zu kurz kommt. Die Autorin erklärt, wie diese Daten gesammelt werden und wo moralische Grenzen liegen.
Beim Thema Energie‑ und Ressourcenverbrauch bleibt für mich persönlich ein kleiner Unsicherheitsfaktor. Die Autorin nennt Zahlen zu Wasser- und Stromverbrauch, die ich aus anderen Quellen anders kenne. Das schmälert den Wert des Kapitels nicht, zeigt aber, wie schwierig es ist, in einem so dynamischen Feld belastbare Daten zu finden. Gleichzeitig macht sie deutlich, dass große Anbieter bereits daran arbeiten, ihre Systeme effizienter zu gestalten.
Insgesamt zeigt dieses Kapitel sehr klar, dass die „dunkle Seite“ der KI nicht in Science‑Fiction‑Szenarien liegt, sondern in alltäglichen Mechanismen: emotionaler Manipulation, wirtschaftlichen Anreizen, fehlender Medienkompetenz und der schieren Masse an Inhalten, die das Netz überflutet.
Medienkritik: Warum die Debatte so schief läuft
Die Autorin beschreibt ein Wettrennen um Aufmerksamkeit, das gründliche Recherche erschwert und Halbwissen begünstigt. Besonders treffend ist ihre Beobachtung, dass KI längst zu einem Marketingbegriff geworden ist: Ein Etikett, das Klicks verspricht, selbst dann, wenn es inhaltlich kaum eine Rolle spielt. „KI“ funktioniert inzwischen wie ein Reizwort: Sobald es in einer Überschrift auftaucht, steigt die Wahrscheinlichkeit, dass der Beitrag geteilt wird. Das führt dazu, dass Medienhäuser, Influencer und Content‑Produzenten den Begriff inflationär einsetzen. Die Autorin zeigt sehr klar, wie diese Dynamik dazu führt, dass echte Informationen hinter einer Schicht aus Buzzwords verschwinden und die Debatte dadurch immer unübersichtlicher wird.
Besonders interessant finde ich ihre Beschreibung der selbsternannten Experten, die sich in diesem Umfeld schnell etablieren. Viele greifen einzelne Schlagworte oder Halbwahrheiten auf, wiederholen sie in selbstbewusstem Ton und erzeugen damit den Eindruck von Kompetenz. Genau dadurch entsteht ein sozialer Druck: Wer nicht mithalten kann oder will, fühlt sich schnell abgehängt. Sie zeigt, wie leicht es ist, in dieser Atmosphäre persönliche Meinungen mit faktenbasiertem Wissen zu verwechseln und wie schnell sich Fehlinformationen verbreiten, wenn sie nur überzeugend genug präsentiert werden.
Gleichzeitig macht sie deutlich, dass diese Entwicklung nicht nur ein Medienproblem ist, sondern ein gesellschaftliches. In einer Umgebung, in der Geschwindigkeit wichtiger ist als Genauigkeit, werden gründliche Recherchen zur Ausnahme. Und je stärker KI als Schlagwort vermarktet wird, desto schwieriger wird es, echte Expertise von lautstarkem Auftreten zu unterscheiden.
Ausblick: KI als Normalität und die Rückkehr zum Menschlichen
Im letzten Kapitel wagt die Autorin Prognosen, die angenehm unaufgeregt sind. Sie beschreibt keine futuristischen Extremszenarien, sondern Entwicklungen, die sich bereits abzeichnen: KI wird normaler werden, Inhalte werden automatisierter entstehen, und gleichzeitig wächst der Wert des Authentischen. Gerade diese Kombination der technologische Beschleunigung auf der einen Seite und das Bedürfnis nach Echtheit auf der anderen, wirkt sehr plausibel.
Der Gedanke „Human made ist das neue Bio“ gefällt mir besonders, weil er einen Trend benennt, den man schon jetzt beobachten kann. In einer Welt voller KI‑Texte, KI‑Bilder und KI‑Videos gewinnt das Handgemachte wieder an Bedeutung. Nicht, weil es technisch überlegen wäre, sondern weil es als Gegenpol funktioniert: ein handgeschriebener Brief, ein bewusst unperfektes Foto oder ein Text, der nicht glattgebügelt wirkt. Die Autorin zeigt, dass Authentizität zu einem Wert wird, der sich nicht automatisieren lässt und dass Menschen zunehmend sensibel dafür werden, ob etwas „echt“ ist oder nur so aussieht.
Gleichzeitig macht sie deutlich, dass diese Entwicklung nicht nostalgisch gemeint ist. Es geht nicht darum, KI abzulehnen, sondern darum, bewusster zu unterscheiden: Was soll automatisiert sein, weil es effizienter ist – und wo wünschen wir uns das Menschliche zurück, weil es Bedeutung trägt. Diese Perspektive zieht sich wie ein leiser, aber konsequenter Faden durch das Kapitel und bildet einen stimmigen Abschluss für das gesamte Buch.
Fazit
„Die KI kann mich mal“ ist ein Sachbuch, das vor allem durch seine Haltung überzeugt: Die Autorin klärt auf, räumt Mythen aus dem Weg und zeigt, wie viel Unsicherheit, Halbwissen und unnötige Dramatik die öffentliche Debatte prägen. Sie beschreibt KI weder als Heilsbringer noch als Bedrohung, sondern als Technologie, die verstanden werden will und deren Wirkung davon abhängt, wie wir sie nutzen.
Besonders stark ist ihre Fähigkeit, komplexe Zusammenhänge so zu erklären, dass sie nachvollziehbar werden, aber auch ohne sie zu verharmlosen. Sie benennt Risiken klar, spricht über Manipulation, Fehlinformationen und gesellschaftliche Dynamiken, aber sie bleibt dabei sachlich und realistisch. Gleichzeitig macht sie Mut, sich mit KI auseinanderzusetzen, statt sie reflexhaft abzulehnen oder unkritisch zu konsumieren.
Was das Buch durchgehend vermittelt, ist ein Bewusstsein für Verantwortung: KI kann unterstützen, erleichtern und inspirieren, aber sie nimmt uns das Denken nicht ab. Wer sich blind auf automatisierte Antworten verlässt, verliert den Blick für Zusammenhänge. Wer sich hingegen informiert, reflektiert und bewusst entscheidet, kann KI als sinnvolles Werkzeug nutzen.
Genau diese Balance macht das Buch lesenswert. Es ist ein Plädoyer für Neugier, für kritisches Hinterfragen und für einen selbstbestimmten Umgang mit einer Technologie, die unseren Alltag längst prägt. Oberrauter‑Zabransky zeigt, dass man keine Experte sein muss, um KI zu verstehen – aber dass man bereit sein sollte, mitzudenken!