Wie AI die Arbeit von Software-Entwicklern verändert

Wir haben jetzt Mai 2026. AI wird langsam brauchbar. Brauchbar wofür? Kommt drauf an, wofür man sie verwenden möchte. Damit einhergehend gibt es natürlich auch immer mehr Diskussionen darüber, wie AI das Leben und die Arbeit von Menschen verändert und damit einhergehend, ob sie Menschen arbeitslos macht. Ich bin kein Freund von vorschnellen Spekulationen, aber mittlerweile zeichnet sich ein Bild ab. Und die granz grobe Zusammenfassung ist eigentlich die geiche wie seit Jahrzehnten: Nichts ist beständiger als der Wandel. IT ist eine schnelllebige Branche. Egal was man heute prognostiziert, es kann morgen schon wieder outdated sein. Aber AI ist kein Neuland mehr, es sind Tendenzen absehbar, wo AI sich mehr etabliert und wo weniger. Klassisches Beispiel: Soziale Berufe. Da werden Firmen versuchen, irgendwie AI reinzubringen, genau so wie in jede andere Branche, aber AI dürfte die Branche da nicht so sehr verändern wie in anderen Bereichen. Klassische EDV-Arbeit? Egal ob jetzt Sekretär, Sachbearbeiter, Buchhalter, Kundenservice-Mitarbeiter, Anwalt? Da wird AI sicherlich viel verändern in den nächsten Jahren. Da AI aber Software ist, und die entsprechenden Produkte dann auch hinsichtlich der Vorteile durch AI auf Software basieren, dauert es vielleicht noch ein paar Jahre, bis die Produkte da sind bzw. sich etablieren, um da Jobs zu verändern. Wie wird das aussehen? Man braucht gute AI-Produkte, die ganz konkrete Aufgaben lösen. Das müssen Aufgaben sein, in denen AI gut drin ist, und es muss etablierbar sein in den Arbeitsalltag. Dann kann es ein gutes Produkt werden. Wenn Marketing-Abteilungen mancher AI-Startups die eierlegende Wollmilchsau versprechen, dann wäre ich skeptisch. Je mehr ein Produkt können soll, desto anspruchsvoller ist die Entwicklung. Der Aufwand steigt überproportional und die Integrationen um den wirklichen Nutzen zu erzielen werden immer schwammiger. Also: Lieber kleine konkrete Probleme durch AI ersetzen. Dann kann man wirklich einen Mehrwert bekommen. Und der heute heute schon da, weil: Lange Rede, kurzer Sinn, wo schlägt AI gerade mit die höchsten Wellen? In der IT. Und als IT-ler, der selbst AI benutzt, kann ich einen Eindruck darüber geben, wie AI den Arbeitsalltag von Software-Entwicklern verändert: Zunächst mal muss man unterscheiden zwischen AI als Werkzeug benutzen, und “AI programmieren”. Beides möchte ich im Folgenden erläutern.

Moderne Software-Entwickler verwenden heute AI als Werkzeug. Das heißt, sie entwickeln mit einem AI-Agenten. Was ist eine AI-Agent? Eine AI-Agent ist eine AI, die nicht nur ein Chat ist, sondern auch (oder nur) Dateien auf der Festplatte bearbeiten kann. Das ist ein wesentlicher Unterschied im Vergleich zum klassischen ChatGPT, das man im Browser benutzen kann. Der entscheidende Vorteil von AI-Agenten ist, dass sie unbeaufsichtigt Aufgaben erledigen können. Das Modell dahinter ist das gleiche wie im Chatfenster, die Fähigkeiten werden der AI werden nur über eine reine Textausgabe hinaus erweitert. Wenn man AI nützlich und sinnvoll einsetzen will, wird man früher oder später zu dem Punkt kommen, wo AI Sache automatisiert erledigen soll. Wenn man als Entwickler eine Funktion implementieren möchte, dann möchte man nicht alle benötigten Dateien, die man kennen muss, um das richtig implementieren zu können, immer in ein browser fenster reinkopieren und dann die Ergebnisse rauskopieren. Man hat in einer modernen IDE ein Chat-Fenster, und da kann man sagen: “Implementier hier das TODO in :42.” Das ist keine verkürzte Form, das ist einfach eine reale Anweisung, die man einem AI-Agenten heute geben kann. Und der Grund, warum der AI-Hype nicht ganz unberechtigt ist: Es funktioniert. Und zwar mittlerweile auch für nicht triviale Aufgaben. Wie bei jeder neuen Technologie gibt’s, wenn man mal unter Artikeln diesbezüglich die Kommentare liest, immer Leute, die sagen “Kaja, das funktioniert in Wirklichkeit gar nicht, höchstens für triviale Demonstrationsaufgaben.” Aber nein. Eben nicht. Wer es nicht glaubt, möge es einfach selbst ausprobieren. Sicher kann es nicht jede AI, aber es gibt AIs, die können meistens nur anhand eines Funktionsnamens und des Kontexts, in dem die Funktion steht, erkennen, was sie tun soll. Man braucht auch kein prompt engineer sein. Man ist immer wieder überrascht, wie gut die AIs verstehen, was man meint und einen ggf. sogar auf Fehler hinweisen, die man selbst übersehen hat. Natürlich: Wenn ich (im chat in der IDE oder im Kommentar im code) die Aufgabe präziser beschreibe, wird die Qualität der Umsetzung besser. Aber selbst das ist zunehmend nur noch bei komplexeren Funktionen nötig. Zugegebenermaßen: Ich verwende beim Entwickeln Claude. Claude gilt als derzeit beste AI fürs Programmieren. Aber die anderen AI-Hersteller werden sicherlich versuchen, den Anschluss hinsichtlich der Qualität nicht zu verlieren.
Definitiv verändert sich die Arbeit von Software-Entwicklern dadurch: AI wird eingesetzt, weil sie die Produktivtität erhöht. Man erledigt Aufgaben heute dadurch schlicht schneller, das ist eine Tatsache. Sonst würde man keinen Cent für Copilot und co. ausgeben. (Und mit Copilot meine ich hier natürlich nicht den klassischen “dummen” Copilot von Windows sondern das IDE-Addon von Microsft, bei dem ich einen Chat habe, und auswählen kann, welche AI dadrin mit mir schreibt.) Anyway: Was bleibt, ist, das ein Mensch Code-Änderungen verstehen und absegnen muss, bevor sie produktiv gehen. Das kann viele Formen annehmen: Der AI beim entwickeln zuschauen, PRs reviewen, die ausschließlich von AI entwickelt wurden, und man kann beliebig kreativ für andere Wege werden, aber letztendlich sollte kein Code produktiv gehen, bei dem nicht ein Mensch gesagt hat: “Jo, sieht plausibel aus, hätte ich genau so gecodet.” Ich weiß, die Praxis sieht heute schon oft anders aus, und das ist ein Problem, aber das ist hier nicht das primäre Thema.

Das zweite Thema beim Einsatz von AI ist: AI in das eigene Produkt zu integrieren. Damit können Firmen dann einen Mehrwert schaffen um tolle AI-Produkte zu verkaufen, die dann wirklich auch außerhalb der IT-Welt Sachen verändern. Sei es Programmierung von autonomen Robotern oder – einer der Klassiker – z. B. im Jurawesen lange Dokumentenberge zusammenfassen. Dafür läuft dann nicht intern ein allgemeiner chatbot, sondern die Entwickler dieser Software machen normalerweise einfach folgendes: Man kauft sich einen API-Key beim AI-Hersteller des Vertrauens und dann bindet man da eine Art chat programmatisch an. Beispiel: Wenn das eigene Produkt AI-basiert Dokumente für einen Anwalt zusammenfassen soll, dann liest man klassisch ohne AI den Dokument-Text irgendwie ein (mit klassischem OCR oder bestenfalls hat man das bereits als Text vorliegen) und dann schickt man zur AI vereinfacht gesagt folgenden Text mit entsprechend gefüllten Variablen: “Du bist ein sachlicher AI-Bot, um Dokumente für Juristen zusammen zu fassen. Der Sachverhalt von unserem Mandaten ist: <Sachverhalt>. Daraus ergibt sich juristisch Folgende Fragestellung: <Fragestellung>. Folgende Dokumente müssen dafür beachtet werden: <Dokument-Inhalt>.” Es ist wirklich nur ein sehr vereinfachtes Beispiel. Aber so läuft es. Je nach Anwendungsfall kann so eine AI dann auf dem eigenen Server laufen (datenschutzfreundlicher, aber man braucht Geld für eine Nvidia H100 oder vergleichbares) oder sonst schickt man sie halt zum API-Server des AI-Herstellers. Und dann bekommt man die Antwort. Text-Verarbeitung vereinzelt und in kleinem Stil, so zum testen, geht vielleicht auch noch auf einer Nvidia RTX-Karte, aber spätestens wenn man mit der AI Bilder irgendwie verarbeiten will (also einlesen, verändern oder auch generieren), braucht man Server-Hardware. Und die Entwicklung solcher Produkte, die einen normalen usecase nehmen, und den so aufbereiten, dass AI dafür eine sinnvolle Antwort geben kann und genug Kontext dafür hat, und die Antwort entsprechend programmatisch weiter verarbeiten, ist wieder normale Anwendungsentwicklung (die mit AI-Agenten beschleunigt wird).

Was ist also das Fazit?
AI wird bleiben. Nicht jeder Usecase und natürlich ist auch heute viel Marketing dabei, aber das Potenzial ist da und Firmen werden das nutzen. Es wird Menschen nicht arbeitslos machen, aber es wird für die gleiche Arbeit entweder weniger Menpower benötigt, oder man wird mit gleichbleibender Menpower produktiver. Zumindest wenn man es richtig macht. Wie bei allen neuen Technologien wird man denke ich auch Irrwege ausprobieren, und erst hinterher feststellen, dass es ein Irrweg war, aber das gehört zur Adoption neuer general-purpose-Technologien ja dazu in dem Sinn, dass es normal ist. Wir werden in den nächsten Jahren sehen, welche Produkte bleiben und welche nicht. Manche Branchen verändern sich mehr, manche weniger. Und für Entwickler ist abzuehen: Die Arbeit verändert sich tatsächlich (wie seit einigen Jahren absehbar) mehr weg vom selbst-entwickeln sondern mehr hin zu Code reviewn. Entwickler, die AI-Code einfach blind committen, werden es schwer haben. Die Entwickler, die gescheit sind und im Code subtile Business-Logik-Fehler finden, die die AI nicht kennen und damit auch nicht fixen kann, werden an Bedeutung gewinnen.
Damit Business-Logik-Fehler möglichst nicht vorkommen, wird es auch an Bedeutung gewinnen, alle relevanten Infos zu dokumentieren. Man schreibt heute schon die üblichen Instruktionen, die immer gelten sollen (z. B. auch code-Konventionen) in Markdown-Dateien, die eine AI beim entwickeln immer erst vorher einliest, um zu genug Basiswissen für das jeweilige Projekt zu haben. Und das muss halt erstmal alles niedergeschrieben werden. Das sollte in der Theorie natürlich schon seit Jahrzehnten so sein, aber das ist ein lange bekannter Unterschied von Theorie und Praxis.
Dazu kommt auch die Architektur von Software. Damit Software langfristig wartbar und damit auch für AI und Reviewer überblickbar bleibt, muss die Grundstruktur eines Software-Projekts sauber und übersichtlich sein. Ob das eine AI bei einem neuen Projekt, das sehr groß wird, so kann? Ich bin unsicher. Aber das ist nur eine Skepsis von heute. Es kann sein, dass AIs auch morgen die Architektur von großen Code-basen besser planen können als Menschen. Dennoch muss auch das dann wieder von einem Menschen nachvollzogen und abgesegnet werden, bevor es produktiv geht, und damit darf es ein gewisses Maß von Projektgröße nicht überschreiten.
Langfristig ist AI also eine Veränderung, ein Effizienzgewinn. Die Veränderung der IT-Welt wird auch in den nächsten Jahren noch Bestand haben, weil jetzt für und mit AI ganz viel umgebaut wird, um AI an jeder Stelle, wo es nützlich ist, sinnvoll und brauchbar einsetzen zu können.
Neulinge in der IT-Welt werden es aber schwer haben. Würde ich in 2026 nochmal Informatik studieren? Ich weiß es nicht. Ich befürchte ehrlich gesagt: Nein. Warum? Als Informatiker mit Berufserfahrung kann man froh sein, wenn man die Entwicklung jetzt in der Form miterlebt, dass man zum AI-Code-reviewer werden kann. Dafür braucht man Erfahrung. Es macht wenig Sinn, code vom Senior-Entwickler von einem Junior-Entwickler reviewn zu lassen. Da hat der Junior-Entwickler normalerweise mehr Fragen als Anmerkungen. Das ist nervig für beide. Umgekehrt ist das sinnvoller. Aber wie wird man Senior-Entwickler? Indem man ein paar Jahre zumindest selbst praktisch entwickelt und sich in Projekte tief einliest. Das geht alles leider nicht von heute auf morgen. Aber wie kann man diese Erfahrung sammeln? Vieles, was Junior-Entwickler machen (oder besser gesagt: gemacht haben) wird heute von einer AI gemacht. Und das macht es so schwer. Die Firmen suchen deswegen weniger Junior-Entwickler, wenn überhaupt. Freilich wird es immer Informatiker geben müssen, um die IT am Laufen zu halten. Aber zumindest gegenwärtig scheint es die Tendenz zu geben, dass Firmen weniger Junior-Entwickler einstellen. Der gegenwärtige schwierigere Job-Einstieg ist das Problem, weswegen ich wahrscheinlich heute nicht nochmal Informatik studieren würde. Ich behaupte nicht, dass das garantiert so bleibt. Aber jetzt gerade ist es halt schwierig. Gerade in wirtschaftlich schwierigen Zeiten wie jetzt ist es sicher für einige Firmen auch eine willkommene Kosteneinsparung, Arbeit nicht von Menschen sondern von AI erledigen zu lassen. Es wird sich jedoch die nächsten Jahre zeigen, ob sich das vielleicht auch wieder ändert. Firmen erkennen jetzt so langsam, dass AI-Nutzung auch teuer sein kann. AI-Hersteller erhöhen gerade ihre Preise, weil die Produkte jetzt etabliert und ausgreift genug sind, dass der AI-Hersteller sich die Preiserhöhung leisten kann, ohne dass die Kunden massenweise wegrennen. Es bleibt also spannend.