Rheinenergie-Arbeitsdirektorin Susanne Fabry prognostiziert, dass bei der Rheinenergie bis 2030 bis zu 20 Prozent der Stellen durch künstliche Intelligenz (KI) ersetzt werden könnten. Was bedeutet das für Beschäftigte in der Energiewirtschaft? Thies Hansen, Betriebsrat beim Netzbetreiber Hamburger Energienetze und ehrenamtlicher Sprecher der Bundesfachgruppe Energie bei Verdi, ordnet ein – und erklärt, warum er eine "soziale Firewall" für unbedingt notwendig hält.
Herr Hansen, bei der Rheinenergie ist von einem möglichen Wegfall von bis zu 20 Prozent der Stellen durch KI bis 2030 die Rede. Wie bewerten Sie solche Prognosen?
Ich sehe im Potenzial von KI tatsächlich etwas, das mit der industriellen Revolution der vergangenen Jahrhunderte vergleichbar ist – das sollte man nicht kleinreden. Für uns als Gewerkschaft bedeutet das, dass wir eine Art soziale Firewall aufbauen müssen, um in der IT-Sprache zu bleiben. Damit sind wir in der Branche nicht die Ersten: Im Hamburger Hafen gibt es bereits Sozialschutz-Tarifverträge, die die Digitalisierung und Modernisierung der Terminals begleiten. Die genaue Zahl von 20 Prozent würde ich so nicht übernehmen, aber dass KI in sehr viele Tätigkeitsbereiche Einzug halten wird, daran zweifle ich nicht.
Wo erwarten Sie den größten Einfluss von KI bei Versorgungsunternehmen?
Im ersten Schritt werden vor allem einfache, administrative Tätigkeiten betroffen sein, danach zunehmend auch wissensbasierte Aufgaben. Was ich dabei für entscheidend halte: Unternehmen müssen ihre Beschäftigten aktiv befähigen, mit diesen Veränderungen umzugehen und KI-Ergebnisse kompetent zu beurteilen. Diese Befähigung ist heute noch deutlich unterentwickelt, und das halte ich für eines der drängendsten Probleme überhaupt.

Was passiert, wenn diese Befähigung ausbleibt?
Dann begibt man sich in ein Entfähigungsprogramm – und das ist kein theoretisches Risiko. Wer KI-Ergebnisse unkritisch übernimmt, verlernt nach und nach, Arbeitsergebnisse fachlich einzuordnen und zu beurteilen. Nach meiner Erfahrung sollte man immer noch in der Lage sein, das zu bewerten, was früher eine Kollegin oder ein Kollege erarbeitet hat. Ich beobachte aber schon zu häufig eine unkritische Übernahme von dem, was KI-Systeme liefern. Für mich ist das Wichtigste: Der Mensch muss entscheiden und entscheidungsfähig bleiben.
Sehen Sie auch Chancen für die Branche?
Durchaus, und die sind erheblich. KI kann dazu beitragen, Netze intelligenter zu machen – man könnte sagen, mit Intelligenz statt Kupfer zu arbeiten. Wenn ich ein Netz besser steuere und auslaste, kann ich den physischen Ausbau an manchen Stellen reduzieren, was Systemkosten senkt und letztlich auch Verbraucher entlastet. Wir erleben außerdem seit Jahren eine Zunahme an Vorgaben und Verfahren – bei Bau- und Genehmigungsprozessen, bei Planung und Regulierung. Diese Welt wird immer komplexer, und Unternehmen haben bisher oft mit zusätzlichem Personal darauf reagiert. Hier kann KI wirklich helfen, Routineaufgaben zu vereinfachen und Tätigkeiten zu reduzieren, die niemandem Freude machen.
Und beim Einsatz im Feld – beim Monteur vor Ort?
Bis ein Roboter die Fachkraft im Netz ersetzt, wird es noch sehr lange dauern. Es gibt erste Erprobungen bei Überwachungs- und Routinetätigkeiten, das stimmt. Aber die qualifizierte Fachkraft vor Ort, die nachts um zwei bei einer Entstörung Feuerwehr und Polizei gegenübersteht und auf der Stelle entscheiden muss, welche Maßnahmen zu ergreifen sind – die ist durch KI in absehbarer Zeit nicht zu ersetzen. Umso wichtiger ist es, dass wir jetzt anfangen, Beschäftigte darin zu schulen, KI-Systeme zu beurteilen, damit am Ende nicht alle auf ein System zeigen und niemand mehr die Verantwortung übernimmt.
Sie haben die "soziale Firewall" angesprochen. Was sollte diese konkret umfassen?
Zunächst geht es um die grundlegende Frage, ob KI-Einsatz zu betriebsbedingten Kündigungen führt oder ob man die entstehenden Einsparungen nutzt, um Beschäftigte für andere Aufgaben zu qualifizieren und Belegschaften neu zu strukturieren. Darüber hinaus müssen Haftungsfragen geregelt werden, die bei KI-Anwendungen in ganz verschiedene Richtungen wirken – von Urheberrechtsfragen bei großen Sprachmodellen bis hin zu der Frage, was passiert, wenn Fehler entstehen, weil für den einzelnen Anwender schlicht nicht nachvollziehbar ist, auf welche Daten und Systeme eine Anwendung im Hintergrund zugreift. Die Komplexität dieser Systeme ist für einzelne Nutzerinnen und Nutzer nicht mehr vollständig durchschaubar.
Wie könnte man Beschäftigte in diesem Punkt schützen?
Eine soziale Firewall könnte vorsehen, dass Beschäftigte in bestimmten Bereichen von Haftung ausgenommen werden und es letztlich nur noch auf Vorsatz ankommt – nicht auf Fehler, die aus der Intransparenz komplexer Systeme entstehen. Gleichzeitig muss ein echtes Befähigungsprogramm dazugehören, das Beschäftigten ermöglicht, KI verantwortungsvoll zu nutzen. Also unter dem Begriff "Responsible AI" nicht nur den Anspruch zu kennen, sondern ihn auch wirklich anzuwenden. Das setzt Kenntnisse voraus, und es setzt voraus, dass die letzte Entscheidung immer beim Menschen bleibt. Das ist auch im European AI Act so verankert – aber man muss genau hinschauen, ob das in der betrieblichen Praxis auch tatsächlich eingehalten wird.
Damit landen wir am Ende wieder bei den Weiterbildungskosten, oder?
Genauso ist es. Das ist ein Kreislauf: Wer KI sinnvoll und fair einsetzen will, kommt um Investitionen in Weiterbildung nicht herum.



