Die Soziologin Sabine Pfeiffer warnt vor einer KI-Debatte, die Produktivität überschätzt und Arbeitsrealität unterschätzt. Im Interview mit der ZFK erklärt sie, warum künstliche Intelligenz (KI) Beschäftigte nicht einfach entlastet, weshalb Modelle im Betrieb sogar schlechter werden können und warum Stadtwerke in kritischen Bereichen besonders vorsichtig sein sollten.
Frau Pfeiffer, wenn Sie auf die aktuelle KI-Debatte schauen: Was läuft da gerade schief?
Es gibt dramatische Prognosen, nach denen so gut wie jeder Job wegfallen werde. Da würde ich sagen: sehr kritisch hinschauen. Bislang stellt sich das so nicht ein. Was man aber beobachtet: Dort, wo Entscheiderinnen und Entscheider an solche Prognosen glauben, hat das konkrete Folgen. Dann werden weniger Personentage für Projekte kalkuliert. Wenn sich die Produktivitätshebel, die der KI zugeschrieben werden, nicht einstellen, bedeutet das schlicht: Die Leute haben noch mehr Stress.
Was dabei oft vergessen wird: Auch die beste KI kann immer wieder falsch liegen. Das heißt, ich brauche weiterhin den Menschen, der kritisch draufschaut. Ich brauche weiterhin die erfahrene, qualifizierte Fachkraft.
Das heißt: Eigentlich reden Vorstände, Berater und Anbieter an der Realität in Unternehmen vorbei?
Meistens mischt sich eine Überschätzung dessen, was die Technik kann, mit einer Unterschätzung der Komplexität der Arbeitsplätze im eigenen Unternehmen. Das zeigt sich in unserer Forschung immer wieder. Je größer das Unternehmen ist, desto weniger weiß das Management an der Spitze, was die Menschen unten wirklich machen und wie komplex ihre Tätigkeiten sind.
Dann setzt man ein Projekt auf, steckt viel Geld hinein, erhebt Trainingsdaten und kann am Ende einen Proof of Concept vorlegen. Also zeigen, dass es grundsätzlich funktioniert. Aber eben nicht verlässlich und robust genug, um wirklich sagen zu können: Das ist jetzt eine echte Entlastung oder ein echter Produktivitätshebel. Dann wird das Projekt eingefroren. Man hat viel Geld ausgegeben, ohne zu einem wirklich guten Ergebnis zu kommen.
Ihre Studie "KI als Kollegin" untersucht den Arbeitsalltag in Unternehmen genauer. Was sind hier die zentralen Ergebnisse?
Es zeigt zunächst einmal, dass die oft geäußerte Behauptung nicht stimmt, KI-Einführungen scheiterten vor allem daran, dass Beschäftigte große Angst oder Vorbehalte hätten. Menschen sind der KI-Nutzung gegenüber relativ offen. Sie nutzen KI privat im Durchschnitt sogar mehr als am Arbeitsplatz.
Gleichzeitig merken Menschen die KI aktiv nutzen: Es ist manchmal sehr hilfreich, ja, aber ich muss eigentlich immer genau hinschauen. Bei KI weiß ich nie, wann der nächste Fehler kommt. Sie kann zehn Tage wunderbar funktionieren. Am elften Tag ist ein Fehler drin, aber weil ich Stress habe, schaue ich an genau diesem Tag nicht mehr so genau hin. Dann kann selbst ein kleiner Fehler große Folgen haben.
An welcher Stelle kippt KI im Arbeitsalltag von Unterstützung ins Risiko?
Bislang ist Technik immer einem relativ einfachen Muster gefolgt: Entweder sie funktioniert, dann kann ich mich darauf verlassen. Oder sie ist kaputt, und das merke ich. Bei KI ist das anders: Alle KI-Systeme, die wir im Moment haben, raten im Grunde ständig. Vereinfacht gesagt: Sie machen Statistik.
Das kann sehr hilfreich sein. Aber es kann eben auch in die andere Richtung galoppieren. Schwierig wird es, wenn ein Ergebnis auf den ersten Blick plausibel aussieht, aber im Detail falsch ist. Dann brauche ich die Zeit und das Erfahrungswissen, um kritisch hinzuschauen. Und das ist eine neue und erhebliche Arbeitsbelastung. Kein Mensch kann acht Stunden am Tag arbeiten und der Technik, mit der er dabei arbeitet, gleichzeitig acht Stunden lang Misstrauen entgegenbringen. Das hält man nicht aus.
Oft heißt es: Das sind noch Übergangsprobleme, die KI wird irgendwann so gut sein, dass sie keine Fehler mehr macht. Aber das stimmt nicht. Selbst die beste KI mit den besten Trainingsdaten macht weiterhin Fehler, nur vielleicht seltener. Und das macht es möglicherweise sogar noch schwieriger, weil ich anfange, zu vertrauen.
Viele gehen davon aus, dass KI mit der Zeit immer besser wird. Sie sagen, das Gegenteil kann der Fall sein. Warum?
Dafür gibt es verschiedene Gründe. Einer ist mathematischer Natur: Solche Systeme tendieren dazu, immer stärker zur Mitte zu gehen. Ausreißer werden zunehmend aussortiert. Dadurch werden die Modelle in gewisser Weise präziser, bekommen aber gleichzeitig einen Tunnelblick. Das kann dazu führen, dass eine KI im Laufe der Zeit wieder schlechter wird.
Ein zweiter Punkt sind veränderte Rahmenbedingungen. Wenn sich in einem Prozess etwas ändert, arbeitet die KI womöglich mit Annahmen weiter, die gar nicht mehr passen. Die erfahrene Fachkraft merkt so etwas oft. Die KI nicht unbedingt.
Und dann kommt noch ein dritter Effekt hinzu: Die Modelle lernen zunehmend aus Inhalten, die selbst schon automatisch erzeugt wurden. Die ersten großen Lerndaten im Internet waren noch überwiegend von Menschen gemacht. Heute ist das Netz immer stärker mit KI-generierten Texten gefüllt. Auch das kann die Grundlage der Modelle verschlechtern.
Was bedeutet das für Stadtwerke?
Man muss sehr unterscheiden, was Stadtwerke tun. Auf der einen Seite haben sie technische Infrastruktur für die Energieversorgung, auf der anderen Seite Beschaffung, Kundenkommunikation oder Marketing. Das sind sehr unterschiedliche Bereiche.
Im Marketing oder bei standardisierten Kundenanfragen kann ein gut trainierter Chatbot schon mal vorausbeantworten. Da kann nicht so viel kaputtgehen. Im schlimmsten Fall ärgert sich ein Kunde und greift doch zum Hörer. Das ist unangenehm, aber eingrenzbar.
Alles, was wirklich in Richtung technische Systeme und kritische Infrastruktur geht, würde ich sehr, sehr sorgfältig behandeln. Dort gilt: Ich brauche eigentlich immer beide Verfahren parallel. Wenn ich KI für Predictive Maintenance einsetze, sollte ich auf keinen Fall die bisherigen Prozesse für präventive Wartungsentscheidungen abschalten. Redundanz als Sicherheitsfeature ist unverzichtbar.
Und in diesem Bereich muss die Cybersecurity-Frage ganz oben stehen. KI macht Systeme angreifbarer, vor allem agentische KI. Alles, was wirklich kritische Infrastruktur im engeren Sinne ist, würde ich vorerst eher KI-frei halten.
Wenn ein Stadtwerk jetzt mit KI starten will: Wo wäre ein sinnvoller Anfang?
In Bereichen, wo es wenig wehtut, wenn es schiefgeht. Wo KI wirklich gut ist, sind Prognosen aus großen historischen Datensätzen. Wenn ich aufgrund von Wetterdaten der letzten 30 Jahre eine Prognose zum Energieverbrauch im nächsten Winter erstellen möchte, kann KI da tatsächlich gut helfen. Aber auch dann würde ich als verantwortungsbewusstes Management einen Sicherheitspuffer einbauen. Es ist und bleibt eine Prognose. Fangen Sie in Bereichen an, in denen KI wirklich helfen kann, und halten Sie Redundanzen möglichst lange aufrecht. Alles, was kritische Infrastruktur im engeren Sinne betrifft, würde ich vorerst KI-frei halten.
Ein anderer Punkt ist der Betriebsrat. Oft heißt es, dieser stoppe den Einsatz von KI. Ist das ein Zerrbild?
Ja, oft schon. Der schlimmste Fall ist eigentlich, wenn es gar keine Institution gibt, die aus Beschäftigtenperspektive kritisch prüft. Natürlich gibt es Betriebsräte, die sich beim Thema KI unsicher fühlen. Aber das gilt oft genauso fürs Management. Der Idealfall ist, dass Arbeitgeber- und Arbeitnehmerseite gemeinsam sagen: Lasst uns das ausprobieren, aber kritisch prüfen, was sich bewährt und was nicht. Genau das ist hier wichtig, weil KI schwerer zu durchschauen ist als klassische Software. Beide Seiten sollten im Grunde dasselbe Interesse haben: von Anbietern klare Aussagen zu bekommen. Wohin gehen die Daten? Was passiert mit ihnen? Wie transparent ist das System? Das sind Fragen, die nicht nur aus Beschäftigtenperspektive wichtig sind, sondern auch aus unternehmerischer Sicht. Deshalb können Betriebsräte in solchen Prozessen sehr gute Partner sein.
Woran merkt man, ob KI in einem Unternehmen sinnvoll eingesetzt wird und nicht nur gut klingt?
Das ist schon der erste Prüfstein: Können die Verantwortlichen genau benennen, was sie im Haus haben, warum, für welchen konkreten Zweck und wie sie getestet haben, ob es dafür im eigenen Unternehmen verlässlich genug funktioniert? Die Vorstellung, dass man KI kauft wie klassische Software, steckt immer noch in vielen Entscheiderköpfen.
Und die Verantwortung bleibt beim Management. Wenn KI dazu beiträgt, dass es in einer mittelgroßen Stadt zu einem Stromausfall kommt, fällt das letztlich auf das Management zurück. Deshalb müssen Entscheiderinnen und Entscheider die Funktionsweise der Technik und vor allem ihre Grenzen wirklich verstehen.
Was liegt Ihnen beim Thema KI besonders am Herzen?
Das Wichtigste habe ich wahrscheinlich schon gesagt, aber ich wiederhole es gerne: Wir brauchen, gerade wenn KI in kritischen Bereichen im Einsatz ist, die erfahrenen und qualifizierten Menschen noch dringender als zuvor.
Ich spreche viel über Risiken, weil ich sehe, wie oft sie unterschätzt werden. Das heißt nicht, dass ich sage: Macht das nicht. Aber man sollte sich dieser Grenzen bewusst sein. Dann kann man gute Entscheidungen treffen: Wo macht es Sinn, unter welchen Voraussetzungen, und wo sollte ich es ganz bewusst nicht machen? Ich bin alles andere als technikfeindlich. Aber man kann Technik nicht gut einsetzen, wenn man sich ihrer Grenzen nicht bewusst ist.

Sabine Pfeiffer
Professorin
Sabine Pfeiffer ist Soziologin und Professorin für Soziologie mit dem Schwerpunkt Technik, Arbeit und Gesellschaft an der Friedrich-Alexander-Universität Erlangen-Nürnberg. Seit 2026 ist sie zudem Vorsitzende des Direktoriums des Bayerischen Forschungsinstituts für Digitale Transformation (bidt). In ihrer Forschung beschäftigt sie sich mit dem Zusammenspiel von Mensch, Technik und Organisation sowie mit den Folgen der digitalen Transformation für Arbeit und Gesellschaft. Zu ihren Schwerpunkten zählen unter anderem Digitalisierung der Arbeitswelt, künstliche Intelligenz, Industrie 4.0, Qualifizierung, Arbeitsvermögen, Standardisierung und soziale Innovation.
Pfeiffer bringt dabei eine ungewöhnliche Perspektive mit: Vor ihrem Soziologiestudium arbeitete sie als Werkzeugmacherin im Maschinenbau und in der Automobilindustrie. Später war sie unter anderem Professorin an der Universität Hohenheim und der Hochschule München sowie Wissenschaftlerin am Institut für sozialwissenschaftliche Forschung (ISF) München.



