Programmieren mit GPT-5.3-Codex und dem ChatGPT Pro Abo-Modell
Mein Anspruch an mich und meine Leistungen ist hoch. Ich bin nicht nur Webdesigner und Marketer, sondern leidenschaftlicher Entwickler. Und das lange vor der Zeit von KI. Die Kombination aus Marketing, Homepage und technischer Architektur ist für mich der eigentliche Reiz dieses Berufs.
Ich arbeite nicht nur mit professionellen externen Lösungen. Ich entwickle eigene Systeme, wenn der Markt nur Umwege, unnötigen Code Ballast oder gar keine Lösung anbietet. Qualität entsteht dort, wo man Standards kennt und sie gezielt erweitert, nicht wo man alles neu erfindet.
Aktuell arbeite ich an komplexen technischen Themen. Also dachte ich mir, wenn schon KI, dann die beste verfügbare Power. Ich habe ChatGPT Pro gebucht, das über 200 € im Monat, teure Profi Abo-Modell von OpenAI.
Dabei habe ich viel gelernt. Genau diese Erfahrungen möchte ich hier offen und kritisch teilen.
Wenn ein Agent wie GPT-Codex sich im Kreis dreht
Das größte Problem war nicht der Code. Es war Stillstand. Codex hing mehrfach in Prüf-Loops fest.
- „Ich überprüfe noch einmal.“
- „Ich finalisiere.“
- „Ich mache es fertig.“
Und dann passierte kaum etwas. Stunden für kleine Anpassungen. Ein neuer Button, eine kleine UI-Änderung. Das ist kein Performance-Thema. Das ist ein Steuerungsproblem im Agentenverhalten.
Moderne Code-Agenten arbeiten mit Selbstreflexion. Sie planen intern, prüfen Alternativen, simulieren Tests. Theoretisch intelligent. Praktisch kann das in Endlosschleifen enden. Und genau das ist passiert.
Wenn UTF-8 zur Dauerbaustelle wird
Besonders auffällig war der Umgang mit Umlauten.
- Immer wieder Encoding-Fehler.
- Immer wieder musste ich korrigieren.
- Geschätzt 30 Mal.
Statt das Problem einmal sauber zu lösen, wurden neue Routinen ergänzt. Zusätzliche Prüfungen. Mehr Code. Das ist das Gegenteil von sauberer Entwicklung. UTF-8 ist Grundlage. Wenn ein System hier instabil ist, entsteht kein Vertrauen.
Das Problem dahinter ist bekannt: Sprachmodelle generieren Text tokenbasiert. Sie „verstehen“ Encoding nicht wie ein Compiler. Wenn Agenten dann noch Code manipulieren, können sich Encoding-Probleme potenzieren.
Für mich bleibt es faszinierend, dass solche grundlegenden Fehler trotz der vollen Pro Power so häufig aufgetreten sind. Gerade wenn man für maximale Leistung bezahlt, erwartet man Stabilität bei Basisstandards wie Encoding, Default Nutzung und sauberer Struktur.
Globale Probleme mit lokalen Pflastern
Ein weiteres Muster: fehlendes systemisches Denken. Das Design funktionierte an einer Stelle nicht? Statt eine globale Lösung zu bauen, wurde genau für diese eine Stelle ein separater Fix geschrieben.
Obwohl in den Guidelines klar stand:
- keine Code-Duplikationen
- globale Lösungen bevorzugen
- Minimal-Code
- bestehende Struktur erweitern
Das ist kein Missverständnis. Das ist Priorisierungslogik. Sprachmodelle gewichten den letzten Prompt oft stärker als persistente Regeln. Das führt dazu, dass lokale Anforderungen dominieren, selbst wenn sie globaler Architektur widersprechen.
Für produktive Softwareentwicklung ist das gefährlich. Wenn Entwickler sich zu sehr darauf verlassen, dass ihre Guidelines automatisch eingehalten werden, und den generierten Code nicht konsequent selbst gegen diese Richtlinien prüfen, kann die Überraschung bei späteren Updates groß sein.
KI erzeugt Code schnell. Verantwortung bleibt trotzdem beim Entwickler. Auch die sogenannte volle KI Power ändert daran nichts. Mehr Rechenleistung ersetzt keine fachliche Kontrolle. Größere Modelle ersetzen kein Architekturverständnis. Und ein Pro Abo ersetzt keine saubere Prüfung gegen eigene Richtlinien.
Warum Standard wichtiger ist als Kreativität
Noch kritischer wurde es bei Standards. Wenn ich z.B. sage: „Nutze das Standard-Tabellen-Layout“ Dann meine ich:
- bestehende Klassen
- Default-Komponenten
- keine Parallelarchitektur
Stattdessen wurde eigener Code geschrieben. Das widerspricht einem der wichtigsten Prinzipien in bestehenden Ökosystemen:
- Maximal Default
- Minimal Eigenbau
Eigenbau erzeugt Wartungsaufwand, technische Schuld, Fehlerquellen. Ein Entwicklungsassistent sollte Standardbibliotheken priorisieren. Nicht ignorieren.
Overengineering als strukturelles Problem
Ein weiteres wiederkehrendes Muster war Overengineering. Ein kleines Problem wurde nicht minimal gelöst, sondern „robust“, „zukunftssicher“ und „erweiterbar“ gebaut, so zumindest war die Meinung von Codex oftmals.
KI optimiert häufig auf formale Vollständigkeit. Jede Eventualität wird abgesichert. Jeder mögliche Edge Case wird bedacht. Das wirkt gründlich.
Ein erfahrener Entwickler optimiert anders. Er denkt in Wartbarkeit, Effizienz und sauberer Integration in bestehende Systeme. Genau das sorgt am Ende auch für mehr Sicherheit. Weniger Code bedeutet weniger Angriffsfläche, weniger Seiteneffekte und weniger technische Schuld.
Diese Optimierungsziele sind nicht identisch. KI neigt dazu, Probleme durch zusätzlichen Code zu lösen. Entwickler lösen Probleme idealerweise durch bessere Struktur.
Das Ergebnis ist häufig größerer Codeumfang als nötig. Mehr Komplexität. Mehr Stellen, an denen später etwas brechen kann.
Wohin die Vibe Coding Entwicklung gehen muss
Damit KI in professionellen Entwicklungsprozessen wirklich entlastet, braucht es:
- stabile Kontextgewichtung von Architektur-Guidelines
- Priorisierung von Framework-Standards
- systemisches statt lokales Denken
- bessere Loop-Kontrolle
- Encoding-Sicherheit als Default
Vor allem systemisches Denken ist entscheidend. Architektur, Wiederverwendbarkeit und Integrationslogik sind wichtiger als einzelne funktionierende Bausteine.
Sprachmodelle arbeiten Schritt für Schritt. Sie reagieren auf den aktuellen Prompt und erzeugen die Lösung, die in diesem Moment am wahrscheinlichsten und formal passend erscheint.
Zuvor definierte Regelwerke oder Architekturprinzipien werden dabei nicht automatisch streng eingehalten, sondern nur soweit berücksichtigt, wie sie im aktuellen Kontext „sichtbar“ und gewichtet sind.
Gerade hier waren meine Erwartungen hoch. Ich bin davon ausgegangen, dass mehr Rechenleistung und ein Pro Modell systemisches Denken fördern würden. Mehr Leistung hat nicht zu besserer Gesamtarchitektur geführt. Stattdessen war es Codex nun möglich, noch komplexere Einzellösungen zu entwickeln.
Fazit
Das ChatGPT Pro Abo war für meinen konkreten Anwendungsfall kein Produktivitätsgewinn. Teilweise sogar das Gegenteil. Das bedeutet nicht, dass KI am Ende ist. Es bedeutet, dass autonome Code Agenten aktuell noch nicht stabil genug sind für professionelle, Guideline getriebene Entwicklung, selbst wenn man die volle Power nutzt.
Softwareentwicklung ohne Programmierverständnis, ohne echte Skills, ohne konsequentes Testen, ohne permanente Weiterbildung und ohne kritischen Blick auf das gesamte Projekt funktioniert nicht. Daran ändert auch KI nichts.
KI kann hilfreich sein. Sie kann beschleunigen. Sie kann Denkprozesse unterstützen. Aber den aktuellen Hype kann ich in dieser Form nicht vollständig nachvollziehen. Und auch die Sorgen vieler Entwickler halte ich für überzogen. Ja, Softwareentwicklung verändert sich gerade massiv. Aber Veränderung ist im digitalen Bereich kein Ausnahmezustand. Sie ist der Normalzustand.
Ich werde weiterhin verschiedene KI Systeme testen. Aber immer mit kritischer Distanz und voller Kontrolle über das Projekt. Mein Grundsatz bleibt klar: Ein KI-System darf niemals Code schreiben, den ich als Entwickler nicht vollständig überblicke.
Kontrolle & Verantwortung bleiben menschlich. Und genau dort liegt auch in Zukunft die eigentliche Qualität.
Dein Webdesigner
Willkommen bei Andreas Schmidt Arts, hier bist du richtig! Mein Motto lautet: „Ich arbeite mit WOW-Effekt!“ Es freut mich, dass du Interesse an meinen Leistungen hast. Überzeuge Dich von meinem Konzept, wie Webseiten heute sein sollten, in einem kostenlosen und unverbindlichen Erstgespräch.



