
Gestern wurde unser Grazer HQ zum Raum für Zukunftstechnologien: Gemeinsam mit Mario Zechner durften wir einen intensiven Workshop rund um das Thema Agentic Coding erleben – mit klaren Worten, spannenden Live-Einblicken und einigen Reality-Checks, die noch lange nachhallen werden.
Statt oberflächlich über KI-Tools zu sprechen, ging es um die entscheidende Frage:
Wie können KI-Agenten sinnvoll in komplexe Software-Architekturen integriert werden – ohne Kontrolle, Qualität und Sicherheit zu verlieren?
Mario, bekannt als Kopf hinter dem minimalistischen Coding Harness Pi der den Grundstein für OpenClaw legte, brachte dabei nicht nur technisches Know-how mit, sondern vor allem eines: Klarheit.
Die wichtigsten Learnings aus dem Workshop
LLMs sind keine Magie – sondern Wahrscheinlichkeitsmaschinen
Ein zentrales Learning für viele Kolleg:innen war die bewusste Entmystifizierung von Large Language Models. LLMs „denken“ nicht. Sie sind stochastische Systeme, deren Qualität fast ausschließlich vom Input-Kontext abhängt. Das bedeutet: Je besser der Kontext, desto besser das Ergebnis.
Oder anders gesagt: Don’t trust the AI. Ever.
Gerade bei großen Modellen ist oft nicht nachvollziehbar, was gelesen, ignoriert oder interpretiert wird. Deshalb ist Vorarbeit entscheidend. Mario arbeitet dabei nach einem einfachen, aber konsequenten Prinzip:
Context sammeln → Planen → Implementieren → Reviewen
Ein strukturierter Prozess, der zeigt, ,dass gute Ergebnisse nicht allein durch Prompts entstehen, sondern durch Engineering-Disziplin.
Agenten unterstützen – Menschen entscheiden
Wir haben im Workshop radikal aussortiert. Während allgemeine Model Benchmarks oft „Garbage“ sind, haben sich in der Praxis klare Favoriten für den Einsatz von Agenten herauskristallisiert:
- Sounding Board & Rubberducking: Agenten sind exzellente Sparringspartner für Architektur-Exploration.
- Time-Saver Automatisierung: Schnelle Bash-Scripts, Bug-Reproduktion via Ticket-Kontext oder das Schreiben von Dokumentation.
- Junior Onboarding: Agenten können Juniors dabei helfen, eine bestehende Codebasis und die darin enthaltenen Best Practices zu verstehen.
Aber Achtung: Review-Bots bleiben laut Mario „Garbage“. Warum? Weil Agenten dazu neigen, ihre eigenen Fehler zu validieren oder Tests passend zum (falschen) Code umzuschreiben. Der Human-in-the-Loop bleibt unersetzlich.
Sicherheit ist kein Extra
Agentic Coding braucht eine kontrollierte Umgebung („Sandbox“). Ein sicheres Setup umfasst:
- Isolation: Docker-Container und kein freier Internetzugang.
- Kontrolle: Human-in-the-Loop bei allen Aktionen mit Seiteneffekten.
- Transparenz: Audit-Logs für jeden Tool-Call und rotierbare API-Keys.
Kurz gesagt: KI darf unterstützen, aber niemals unkontrolliert handeln.
Die ungelösten Herausforderungen
Trotz aller Fortschritte blieb eine Erkenntnis besonders hängen: Das Junior-Problem bleibt ungelöst. KI kann beim Onboarding unterstützen, aber sie ersetzt nicht das tiefe Verständnis, das durch eigene Erfahrung wächst. Ein System ist erst dann wirklich „AI-ready“, wenn die Architektur so klar ist, dass auch ein Junior (mit KI-Support) die Best Practices darin erklären kann. Es gilt: Was gut für den Menschen (lesbar, strukturiert) ist, ist auch gut für den Agenten.
Die Aha-Momente unserer ACLianer:innen
Auch unsere Kolleg:innen waren sich einig: Der Workshop war weit mehr als ein klassischer KI-Vortrag – er hat vor allem Orientierung geschaffen. Besonders wertvoll war für viele das grundlegende Verständnis darüber, wie LLMs tatsächlich funktionieren und wo ihre Grenzen liegen.
“Mario Zechner versteht, wie nur sehr wenige auf der Welt, wirklich wovon er redet und kann daher die Essentials fernab des ganzen Hypes und Marketings sehr gut weitergeben.” – ein begeisterter ACLianer
- Realistische Einschätzungen, wofür KI sinnvoll ist und wofür bewusst nicht
- Das klare Verständnis, dass AI keine Architekturentscheidungen ersetzt
- Das Wissen, dass Tests, Reviews und größere Themen immer einen Human-in-the-Loop brauchen
- Antworten auf praktische Fragen: Was funktioniert gut mit Text, Bildern oder Tabellen und was muss immer gegengeprüft werden?
Warum solche Workshops für uns wichtig sind
Für uns bei ACL ist klar, dass Innovation neben Zeit und Raum vor allem Menschen braucht, die gewohnte Prozesse konsequent neu denken. Solche Formate schaffen genau das – technischen Tiefgang, standortübergreifenden Wissenstransfer und die Möglichkeit, echte strategische Potenziale zu erkennen.
Unser Fazit: Agentic Coding ist ein Architektur- und Mindset-Thema.
Und genau daran arbeiten wir laufend – Stay tuned!
Weitere Beiträge:
Gestern wurde unser Grazer HQ zum Raum für Zukunftstechnologien: Gemeinsam mit Mario Zechner durften wir einen intensiven Workshop rund um das Thema Agentic Coding erleben – mit klaren Worten, spannenden Live-Einblicken und einigen Reality-Checks, die noch lange nachhallen werden.
Statt oberflächlich über KI-Tools zu sprechen, ging es um die entscheidende Frage:
Wie können KI-Agenten sinnvoll in komplexe Software-Architekturen integriert werden – ohne Kontrolle, Qualität und Sicherheit zu verlieren?
Mario, bekannt als Kopf hinter dem minimalistischen Coding Harness Pi der den Grundstein für OpenClaw legte, brachte dabei nicht nur technisches Know-how mit, sondern vor allem eines: Klarheit.
Die wichtigsten Learnings aus dem Workshop
LLMs sind keine Magie – sondern Wahrscheinlichkeitsmaschinen
Ein zentrales Learning für viele Kolleg:innen war die bewusste Entmystifizierung von Large Language Models. LLMs „denken“ nicht. Sie sind stochastische Systeme, deren Qualität fast ausschließlich vom Input-Kontext abhängt. Das bedeutet: Je besser der Kontext, desto besser das Ergebnis.
Oder anders gesagt: Don’t trust the AI. Ever.
Gerade bei großen Modellen ist oft nicht nachvollziehbar, was gelesen, ignoriert oder interpretiert wird. Deshalb ist Vorarbeit entscheidend. Mario arbeitet dabei nach einem einfachen, aber konsequenten Prinzip:
Context sammeln → Planen → Implementieren → Reviewen
Ein strukturierter Prozess, der zeigt, ,dass gute Ergebnisse nicht allein durch Prompts entstehen, sondern durch Engineering-Disziplin.
Agenten unterstützen – Menschen entscheiden
Wir haben im Workshop radikal aussortiert. Während allgemeine Model Benchmarks oft „Garbage“ sind, haben sich in der Praxis klare Favoriten für den Einsatz von Agenten herauskristallisiert:
- Sounding Board & Rubberducking: Agenten sind exzellente Sparringspartner für Architektur-Exploration.
- Time-Saver Automatisierung: Schnelle Bash-Scripts, Bug-Reproduktion via Ticket-Kontext oder das Schreiben von Dokumentation.
- Junior Onboarding: Agenten können Juniors dabei helfen, eine bestehende Codebasis und die darin enthaltenen Best Practices zu verstehen.
Aber Achtung: Review-Bots bleiben laut Mario „Garbage“. Warum? Weil Agenten dazu neigen, ihre eigenen Fehler zu validieren oder Tests passend zum (falschen) Code umzuschreiben. Der Human-in-the-Loop bleibt unersetzlich.
Sicherheit ist kein Extra
Agentic Coding braucht eine kontrollierte Umgebung („Sandbox“). Ein sicheres Setup umfasst:
- Isolation: Docker-Container und kein freier Internetzugang.
- Kontrolle: Human-in-the-Loop bei allen Aktionen mit Seiteneffekten.
- Transparenz: Audit-Logs für jeden Tool-Call und rotierbare API-Keys.
Kurz gesagt: KI darf unterstützen, aber niemals unkontrolliert handeln.
Die ungelösten Herausforderungen
Trotz aller Fortschritte blieb eine Erkenntnis besonders hängen: Das Junior-Problem bleibt ungelöst. KI kann beim Onboarding unterstützen, aber sie ersetzt nicht das tiefe Verständnis, das durch eigene Erfahrung wächst. Ein System ist erst dann wirklich „AI-ready“, wenn die Architektur so klar ist, dass auch ein Junior (mit KI-Support) die Best Practices darin erklären kann. Es gilt: Was gut für den Menschen (lesbar, strukturiert) ist, ist auch gut für den Agenten.
Die Aha-Momente unserer ACLianer:innen
Auch unsere Kolleg:innen waren sich einig: Der Workshop war weit mehr als ein klassischer KI-Vortrag – er hat vor allem Orientierung geschaffen. Besonders wertvoll war für viele das grundlegende Verständnis darüber, wie LLMs tatsächlich funktionieren und wo ihre Grenzen liegen.
“Mario Zechner versteht, wie nur sehr wenige auf der Welt, wirklich wovon er redet und kann daher die Essentials fernab des ganzen Hypes und Marketings sehr gut weitergeben.” – ein begeisterter ACLianer
- Realistische Einschätzungen, wofür KI sinnvoll ist und wofür bewusst nicht
- Das klare Verständnis, dass AI keine Architekturentscheidungen ersetzt
- Das Wissen, dass Tests, Reviews und größere Themen immer einen Human-in-the-Loop brauchen
- Antworten auf praktische Fragen: Was funktioniert gut mit Text, Bildern oder Tabellen und was muss immer gegengeprüft werden?
Warum solche Workshops für uns wichtig sind
Für uns bei ACL ist klar, dass Innovation neben Zeit und Raum vor allem Menschen braucht, die gewohnte Prozesse konsequent neu denken. Solche Formate schaffen genau das – technischen Tiefgang, standortübergreifenden Wissenstransfer und die Möglichkeit, echte strategische Potenziale zu erkennen.
Unser Fazit: Agentic Coding ist ein Architektur- und Mindset-Thema.
Und genau daran arbeiten wir laufend – Stay tuned!







