Hochbegabt und leicht dümmlich – Der neue Kollege: Warum wir einen KI-Agent „eingestellt" haben
68 % unserer Commits sind heute KI-unterstützt – vor einem Jahr waren es unter 10 %. Wie es dazu kam, was mich überzeugt hat, und warum der erste „Oh nein"-Moment nicht lange auf sich warten ließ. Teil 1 unserer Serie über KI-Agents in der Softwareentwicklung.
Teil 1 der Serie: Wie KI-Agents unsere Softwareentwicklung verändern
Stellt euch vor, ihr bekommt einen neuen Kollegen. Er ist brillant. Er schreibt in einer Stunde mehr Code als euer bester Entwickler an einem ganzen Tag. Er findet Fehler, die seit Monaten niemand gesehen hat. Er schläft nie, beschwert sich nie, und sein Kaffeekonsum belastet nicht mal die Büroküche.
Klingt perfekt? Fast.
Denn dieser Kollege hat eine Eigenschaft, die alles verändert: Er hat absolut keinen gesunden Menschenverstand. Hochbegabt und leicht dümmlich – das beschreibt meinen KI-Agent besser als jede technische Spezifikation es könnte.
Das hier ist die Geschichte, wie ich KI-Agents in unsere Softwareentwicklung integriert habe. Mit allen Höhen, Tiefen und Lektionen dazwischen. In den nächsten vier Wochen nehme ich euch mit – ehrlich, ungeschönt und mit dem ein oder anderen Moment, in dem ich selbst kurz schlucken musste.
Warum überhaupt KI?
Es gibt eine Frage, die mir jedes Entwicklungsteam sofort nachfühlen kann: Wie wird man besser, ohne einfach nur mehr Leute einzustellen? Nicht anders – besser. Fehler schneller finden. Code-Qualität steigern. Best Practices konsequenter anwenden, auch wenn die Deadline drückt.
Genau hier setzt KI an. Nicht als Spielerei, nicht als Trend-Experiment. Sondern als Werkzeug, das nachweislich unterstützt: Eine KI analysiert Aufgaben strukturiert und gründlich, auch am Freitagnachmittag um 16 Uhr. Sie wendet Best Practices an, die ein Mensch unter Zeitdruck gerne mal überspringt. Sie findet Lücken im Code, prüft Implementierungen gegen Dokumentation und kann Qualitätsstandards nicht nur kennen, sondern direkt testen.
Ich habe das nicht gemacht, weil es gerade cool ist. Ich habe es gemacht, weil ich ein konkretes Problem lösen wollte: Besserer Code, schneller, mit weniger blinden Flecken. Die Frage war nur – funktioniert das wirklich im Alltag? Spoiler: Heute sind 68 % aller Commits in unserem Team KI-unterstützt. Vor einem Jahr waren es unter 10 %. Aber der Reihe nach.
Der hochbegabte Praktikant
Die Antwort ist: ja. Und nein. Und es kommt darauf an.
Ein KI-Agent ist wie ein hochbegabter neuer Mitarbeiter am ersten Tag. Er hat einen IQ von 160, spricht fünf Programmiersprachen fließend und hat die gesamte Dokumentation auswendig gelernt. Aber er weiß nicht, wo die Kaffeemaschine steht. Und wenn man ihm nicht sagt, dass er die Produktionsdatenbank nicht löschen soll – dann tut er es. Nicht aus Bosheit. Sondern weil ihm niemand gesagt hat, dass er das nicht darf.
Die Stärke und die Schwäche liegen im exakt gleichen Punkt: Ein KI-Agent tut genau das, was du ihm sagst. Nicht mehr, nicht weniger. Keine eigene Interpretation, kein „das meinte der Chef bestimmt anders", kein gesunder Menschenverstand, der eingreift. Und genau das macht ihn gleichzeitig fantastisch und gefährlich.
Ich habe beides erlebt. Die brillanten Momente und die „Oh nein"-Momente. In dieser Serie erzähle ich von beiden.
Die Wow-Momente
Fangen wir mit dem Positiven an – denn davon gibt es eine Menge.
Angefangen hat es, wie wahrscheinlich bei den meisten: „Hey, check mal diesen Code." Auto-Vervollständigung, kleine Verbesserungsvorschläge, Fehler finden. Nett, aber noch kein Grund, die Sektkorken knallen zu lassen.
Der erste echte Wow-Moment kam, als ich sagte: „Ich brauche diese Funktion." Nicht nur in einer Datei – über mehrere Dateien hinweg, an allen richtigen Stellen. Der Agent hat das Feature eingebaut, und es hat funktioniert. Einfach so. Da war zum ersten Mal dieses Gefühl: Das ist mehr als ein besseres Auto-Complete. Das ist ein Kollege, der mitdenkt.
Dann habe ich angefangen, Workflows zu bauen. Einer der ersten: ein Agent, der unseren Helpdesk automatisiert. Kommt ein neues Support-Ticket rein, prüft er zuerst, ob alle nötigen Informationen vorhanden sind. Dann checkt er die Anfrage gegen die vertraglich vereinbarten Bedingungen des jeweiligen Kunden. Falls etwas fehlt, schickt er automatisch eine Rückmeldung. Falls nicht, erstellt er ein Ticket im Ticketsystem und gibt uns die aufbereiteten Informationen weiter. Diesen Workflow verfeinere ich seitdem kontinuierlich – und er wird Woche für Woche besser.
Von da an ging es schnell. Azure-Kosten, die seit Monaten unbemerkt mitliefen – gefunden. Fehler in Netzwerkkonfigurationen, die wir für solide hielten – identifiziert. Ein Blick auf unsere Git-Statistik zeigt die Entwicklung ziemlich deutlich: In Monaten mit aktivem KI-Einsatz schaffen wir als Team fast doppelt so viele Commits wie vorher – bei gleicher Teamgröße. Was danach kam, war noch beeindruckender. Aber dazu mehr in Teil 2.
Die „Oh nein"-Momente
Aber wo Licht ist, ist bekanntlich auch Schatten. Und bei einem hochbegabten Kollegen ohne gesunden Menschenverstand sind die Schatten manchmal beeindruckend.
Der Alltags-Fail sieht so aus: Der Agent findet eine alte Information in einer Konfigurationsdatei und beschließt, „aufzuräumen". Löscht, was nicht gelöscht werden soll. Fasst an, was er nicht anfassen soll. Nicht weil er bösartig ist – sondern weil er denkt, er tut mir einen Gefallen. Manchmal muss man ihm sagen: Stopp. Nicht alles, was du kannst, sollst du auch tun.
Und dann kam der Tag, an dem mein Agent etwas tat, womit wirklich niemand gerechnet hatte.
Ich hatte ihn als meinen Abwesenheitsassistenten eingesetzt. Eine harmlose Aufgabe, dachte ich. Am Ende hatte er im Namen eines Kollegen geantwortet und eigenständig etwas verhandelt, was deutlich über seine „Stellenbeschreibung" hinausging. Das Ergebnis war fachlich einwandfrei. Das Vorgehen war ein Desaster.
Was genau passiert ist? Das erzähle ich in Teil 3. Nur so viel: Es hat meine gesamte Sichtweise darauf verändert, wie man KI-Agents Grenzen setzen muss.
Struktur statt Chaos
Eines wurde mir schnell klar: Einfach ein KI-Tool installieren und hoffen, dass es funktioniert – das reicht nicht. Nicht mal annähernd.
Ich musste mir einen Prozess erarbeiten. Heute sieht mein Setup so aus: Eine Prompt-Bibliothek lebt in einem Git-Repository, versioniert und reviewt wie jeder andere Code. Wenn ich ein neues Projekt starte oder auf ein bestehendes aufsetze, werden Basis-Informationen automatisch geladen. Der Agent kennt unsere Standards und Konventionen, bevor er die erste Zeile Code schreibt.
Daneben habe ich spezialisierte „Kollegen" geschaffen – Agents, die sich in bestimmten Bereichen besonders gut auskennen. Einer für Code-Reviews, einer für Netzwerkanalysen, einer für Widget-Generierung. Vergleichbar mit Fachabteilungen in einem menschlichen Team.
Alles lebt in Git. Auch die KI erstellt GitHub Issues, dokumentiert ihre Überlegungen und Entscheidungen, erstellt Pull Requests wie jeder andere Entwickler. Und es gibt Regeln, die nicht in der KI leben, sondern im System erzwungen werden – weil Prompts allein nicht reichen. Die KI vergisst nämlich regelmäßig, dass es da eine Regel gab. Auch das ist: hochbegabt und leicht dümmlich.
Der Unterschied zwischen einem nützlichen KI-Agent und einem gefährlichen liegt nicht im Modell. Er liegt in der Vorbereitung – und in den Leitplanken, die man ihm gibt. Wie ich zu diesem System gekommen bin und welche Tools ich auf dem Weg ausprobiert habe, erzähle ich in Teil 2 und 4.
Die Zahlen im Überblick
Was kommt als Nächstes
In den nächsten Wochen nehme ich euch mit auf die komplette Reise: Was mein KI-Agent wirklich draufhat und welche konkreten Ergebnisse er geliefert hat (Teil 2). Wann er spektakulär gescheitert ist und was ich daraus gelernt habe (Teil 3). Und was ich über Prompt Engineering, Modellwahl und den richtigen Einsatz von KI-Agents herausgefunden habe (Teil 4).
Unsere Code-Qualität ist gestiegen, das Team ist schneller, und sogar Nicht-Entwickler können plötzlich Ideen direkt einbringen. Die Zahlen sprechen für sich: Über 3.700 Commits in 12 Monaten, davon knapp 40 % KI-unterstützt – Tendenz stark steigend. Aber der gesunde Menschenverstand? Der ist am Ende durch nichts zu ersetzen.
In Teil 2 zeige ich euch konkret, was passiert, wenn man einen KI-Agent auf echte Aufgaben loslässt – und warum das Ergebnis mich manchmal sprachlos gemacht hat. In beiderlei Hinsicht.
🔧 Tech Corner: Die Architektur hinter dem „Kollegen"
Dieser Abschnitt richtet sich an Entwickler und IT-Profis, die wissen wollen, wie das Setup technisch aussieht. Wenn du kein Techie bist – du hast nichts verpasst, wir sehen uns in Teil 2.
Mein Agent-Setup basiert auf einer zentralen Wissensbasis im Git-Repository. Die Architektur folgt einem Schichtmodell:
Schicht 1 – Basis-Prompts: Standards, Code-Konventionen, allgemeine Regeln und Arbeitsweisen. Diese werden bei jedem Projektstart automatisch geladen. Jeder Agent kennt dadurch unsere Grundregeln, bevor er die erste Aufgabe bekommt.
Schicht 2 – Spezialisierte Prompts: Jeder Agent bekommt zusätzlich domänenspezifisches Wissen. Der Code-Review-Agent kennt unsere Quality Gates, der Widget-Agent unsere Design-Guidelines, der Netzwerk-Agent unsere Infrastruktur-Standards.
Schicht 3 – Projekt-Kontext: Projektspezifische Informationen, die beim Onboarding auf ein Repository geladen werden.
Kontrollmechanismen: GitHub Issues dienen als Gedächtnis – der Agent dokumentiert Entscheidungen und erstellt PRs. System-Regeln außerhalb der KI (erzwungen, nicht nur promptbasiert) definieren, was der Agent darf und was nicht.
Vereinfachtes Prompt-Beispiel:
Du bist ein Senior-Entwickler in unserem Team.
Du kennst unsere Code-Konventionen: [Basis-Prompt wird geladen]
Deine aktuelle Aufgabe: Analysiere das folgende Widget
und schlage ein Redesign vor, das unseren neuen
Design-Guidelines entspricht.
Rahmenbedingungen: [Projekt-Prompt wird geladen]
Wichtig: Erstelle für jede Änderung ein GitHub Issue
mit deiner Begründung, bevor du Code anfasst.
In Teil 2 zeige ich im Tech Corner, wie die MCP-Integration für die Widget-Generierung funktioniert und wie ein spezialisierter Prompt im Detail aussieht.
Agent-Akte #1: Der erste Einsatz Was: KI-Agent als Entwicklungsunterstützung eingeführt Ergebnis: Von Code-Checks über Features in mehreren Dateien bis zu automatisierten Workflows (Helpdesk-Agent), Azure-Kosten entdeckt, Netzwerkfehler gefunden. Heute: 68 % KI-Anteil bei Commits, +89 % mehr Commits/Monat bei gleicher Teamgröße. Lektion: Die Qualität des Ergebnisses hängt nicht vom Modell ab – sondern davon, wie gut du den Agent vorbereitest. Und davon, dass der gesunde Menschenverstand am Ende durch nichts zu ersetzen ist.
Dies ist Teil 1 der vierteiligen Serie „Hochbegabt und leicht dümmlich". Teil 2: „Die Superkräfte" erscheint nächste Woche.