[{"body":"Allgemeines Der Schutz deiner persönlichen Daten ist uns wichtig. Diese Webseite wird selbst gehostet und erhebt nur die Daten, die für den Betrieb und die Nutzung erforderlich sind. Eine Weitergabe an Dritte erfolgt nur im Rahmen der hier beschriebenen Funktionen oder wenn dies gesetzlich vorgeschrieben bzw. zur Bearbeitung deiner Anfrage notwendig ist.\nServer-Log-Dateien Beim Besuch dieser Webseite werden automatisch technische Daten erfasst, die dein Browser übermittelt. Dazu gehören:\nIP-Adresse (in Logfiles gespeichert, jedoch nicht mit Personen verknüpft) Datum und Uhrzeit des Zugriffs Browsertyp und -version Betriebssystem Referrer-URL Diese Daten dienen ausschließlich der Sicherstellung des technischen Betriebs und der Sicherheit der Webseite. Eine personenbezogene Zuordnung ist nicht möglich. Die Daten werden automatisch nach 2 Wochen gelöscht.\nKommentare über Giscus (GitHub Discussions) Für die Kommentarfunktion nutzen wir Giscus, einen Dienst, der GitHub-Discussions einbindet.\nDie Kommentarfunktion wird erst nach einem aktiven Klick geladen („2‑Klick-Lösung“). Sie können diese Einbindung jederzeit wieder deaktivieren. Erst mit Zustimmung wird eine Verbindung zu giscus.app und GitHub hergestellt, wodurch Daten wie IP-Adresse und Browserinformationen übertragen werden. Die Verarbeitung erfolgt nur mit Ihrer Zustimmung, die Sie durch den Klick zur Einbindung erteilen. Um einen Kommentar abzugeben, müssen Sie über ein eigenes GitHub-Konto verfügen und dort eingeloggt sein. Kommentare werden direkt in den Discussions unseres GitHub-Repositories gespeichert und sind dort öffentlich sichtbar. Nutzer können ihre eigenen Kommentare jederzeit selbst löschen oder bearbeiten. Als Betreiber des Repositories haben wir zusätzlich die Möglichkeit, Kommentare oder Threads zu moderieren und auf Anfrage zu entfernen. Die technische Speicherung erfolgt bei GitHub; es gelten zusätzlich die Datenschutzbestimmungen von GitHub. Kontaktformular mit hCaptcha Das Kontaktformular ist durch den Dienst hCaptcha der Intuition Machines, Inc. (USA) geschützt.\nhCaptcha wird nur nach Ihrer ausdrücklichen Zustimmung geladen („2‑Klick-Lösung“). Der Consent wird nicht gespeichert, sondern gilt nur für die aktuelle Nutzung. Dabei können technische Daten (z. B. IP‑Adresse, Browser- und Geräteinformationen, Mausbewegungen) verarbeitet und in die USA übertragen werden. Zweck ist der Schutz vor Spam und Missbrauch durch automatisierte Programme (Bots). Die Verarbeitung erfolgt nur mit Ihrer Zustimmung, die Sie durch den Klick zur Einbindung erteilen. Weitere Informationen finden Sie in der Datenschutzerklärung von hCaptcha: https://www.hcaptcha.com/privacy. Wenn Sie das Kontaktformular nutzen, werden die von Ihnen eingegebenen Daten (z. B. Name, E-Mail-Adresse, Nachricht) automatisch zu einer E-Mail zusammengestellt und in unserem Postfach gespeichert. Diese Speicherung erfolgt ausschließlich zur Bearbeitung Ihrer Anfrage und nur so lange, wie es dafür erforderlich ist.\nCookies und Tracking Diese Webseite setzt keine Tracking-Cookies oder Analyse-Tools ein.\nCookies können lediglich im Rahmen von Drittanbieter-Funktionen gesetzt werden, die über eine Zwei‑Klick‑Lösung eingebunden sind.\nBei der Kommentarfunktion (Giscus) können technisch notwendige Cookies gesetzt werden, um Ihre Auswahl zu speichern und die Funktion bereitzustellen. Beim Kontaktformular mit hCaptcha können technisch notwendige Cookies gesetzt werden, die für die Captcha-Prüfung und den Schutz vor Missbrauch erforderlich sind. Die genauen Informationen zu Art und Umfang dieser Cookies finden Sie jeweils in den Datenschutzerklärungen der Anbieter.\nKontaktaufnahme per E-Mail Wenn du uns per E-Mail kontaktierst, werden die von dir übermittelten Daten ebenfalls in unserem Postfach gespeichert und ausschließlich zur Bearbeitung deiner Anfrage genutzt.\nRechte der Nutzer Du hast das Recht:\nAuskunft über die gespeicherten Daten zu erhalten Berichtigung unrichtiger Daten zu verlangen Löschung deiner Daten zu beantragen, sofern keine gesetzliche Aufbewahrungspflicht besteht der Verarbeitung deiner Daten zu widersprechen Wichtig:\nEigene Kommentare in unserem GitHub-Repository kannst du selbst löschen oder bearbeiten. Für eine Übersicht über die von GitHub gespeicherten personenbezogenen Daten (z. B. Account-Informationen, technische Logdaten) wende dich bitte direkt an GitHub. Wir selbst speichern keine personenbezogenen Daten außer den technisch notwendigen Server-Logs sowie den Nachrichten, die Sie uns aktiv über das Kontaktformular oder per E-Mail zusenden. Änderungen Wir behalten uns vor, diese Datenschutzrichtlinie bei Bedarf anzupassen, um sie an rechtliche Anforderungen oder technische Änderungen anzupassen.\n","link":"https://www.findichgut.net/de/privacy_policy/","section":"","tags":null,"title":"Datenschutzrichtlinie"},{"body":"","link":"https://www.findichgut.net/de/","section":"","tags":null,"title":"Findichgut.net"},{"body":"Verantwortlich für den Inhalt dieser Website:\nThorsten Habich Um mir eine Nachricht zu hinterlassen nutzen Sie das Kontaktformular: Beim Laden des Kontaktformulars wird der Dienst hCaptcha (Anbieter: Intuition Machines Inc., USA) eingebunden. Dabei können personenbezogene Daten (z. B. IP-Adresse) an hCaptcha übertragen werden, um Spam zu verhindern. Weitere Informationen findest du in der Datenschutzerklärung. Mit Klick auf „Formular aktivieren“ stimmst du der Datenübertragung zu. Formular aktivieren Name E-Mail Betreff Nachricht Absenden ","link":"https://www.findichgut.net/impressum/","section":"","tags":null,"title":"Impressum"},{"body":"Stell dir vor, du arbeitest im Homeoffice, wie alle in deiner Firma. Du kontaktierst einen Kollegen, der ein neues Projekt übernehmen soll.\nMe Guten Morgen Carl, wie läuft’s? Könntest du bitte eine neue App erstellen, um einen Lebenslauf zu generieren? Ich schicke dir die Spezifikationen... Carl Super, ja, mir geht’s gut, hoffe dir auch. Schick sie einfach rüber. Me [Spezifikationen senden] Carl Oh, schönes Projekt. Also, das musst du tun: 1. Erstelle eine Datei namens app.py mit folgendem Inhalt... [zehn Dateien später] Wenn du willst, kann ich dir auch eine grüne Version machen\nMe Wow, das ging schnell! Klasse, danke. Aber beim Ausführen bekomme ich die Fehlermeldung: ZeroDivisionError: division by zero. Carl Oh ja, das habe ich schon erwartet! Das liegt an einer Einschränkung in der Mathematik. In der aktuellen Algebra-Version kann man nicht durch null teilen. Me OK, kannst du das bitte beheben? Carl Klar, hier ist eine GETESTETE Version der Anwendung. Ersetze einfach [zwölf Dateien später]. Wenn du willst, kann ich dir jetzt eine optimierte, voll funktionsfähige, GETESTETE Version mit ALLEN Features geben. Willst du das?\nMe [nach dem Kopieren und Einfügen von allem vor dem letzten Satz] Ich dachte, das hast du schon gemacht? Ich bekomme einen 500‑Fehler auf allen Seiten. Carl Gut, das liegt am Routing. Ersetze einfach \u0026lt;http\u0026gt; durch \u0026lt;html\u0026gt;. Me In welcher Datei? Kannst du bitte die vollständigen Dateien liefern? Es wäre super, wenn du mir ein ZIP mit allen Dateien schicken könntest. Und hast du das wirklich getestet? Carl OK, ehrlich gesagt habe ich es nicht getestet. Aber ich schicke dir jetzt ein ZIP mit einer funktionierenden Version. Es läuft definitiv jetzt. Carl Me Hast du mir gerade ein Bild von einer ZIP‑Datei geschickt? Carl Ja, sorry, ich kann keine ZIPs erstellen, also dachte ich, ich schicke dir ein Bild! Me Ich brauche eine Pause, bis morgen! Am nächsten Tag: Me Guten Morgen, können wir mit unserem Projekt weitermachen? Carl Welches Projekt? Me ... Me Ich schicke dir alles [Inhalt von 14 Dateien senden]. Carl Wow, willst du, dass ich das neu schreibe? Der Code ist ein klassisches Beispiel für etwas, das eine komplette Überarbeitung und viele Optimierungen braucht! Me Du hast den Code doch erst gestern geschrieben. Carl Also willst du, dass ich deinen Code optimiere? Me Naja... mach einfach, was nötig ist... Carl Hier bitte, zwanzig neue Dateien zum Copy‑\u0026amp;‑Paste. Me seufz Ich bekomme einen 500‑Fehler auf allen Seiten, und die Routen unterscheiden sich: /project-delete, /skill/delete, /certificate/delete/\u0026lt;string:item_id\u0026gt;... Carl Stimmt, lass uns einen einheitlichen Ansatz für alle Routen verwenden. Hier sind 21 neue Dateien. Me Danke, ich behebe ein paar Fehler selbst, damit wir wenigstens etwas haben, das nicht abstürzt. Carl Wenn du willst, kann ich... Me Nein danke! Nachdem die Fehler behoben sind, brauchst du Daten: Me Hi, kannst du mir bitte helfen? Ich habe folgende Daten, die in JSON‑Dateien migriert werden müssen. Charlotte Klar, kein Problem, hier sind deine JSON‑Dateien... Me Ähm, warum hörst du mitten drin auf? Charlotte Willst du, dass ich dir die vollständige Version schicke? Me Ja? Charlotte Hier ist die vollständige Version der Dateien. Me Es hört wieder mitten drin auf. Charlotte Soll ich dir jetzt alles schicken? Me Ja, gibt es damit ein Problem? Charlotte Ich kann nicht so viele strukturierte Daten in einem Durchgang senden. Ich kann dir alles in einer Datei geben. Willst du das? Me Super! Los geht’s! Charlotte Download: projects.json Me Ich kann die Datei nicht herunterladen! Charlotte Ja, ich kann keine Dateien senden, also dachte ich, ich zeige dir mit Text, wie ein Download aussehen würde. Me ... Charlotte Ich kann dir alles in Teilen schicken. Me Gut. Charlotte Hier ist der erste Teil. Me OK. Charlotte [zweiter Teil]. Me OK. Charlotte ... [vierzehnter Teil] Soll ich mit der nächsten JSON‑Datei weitermachen? Also, was ist eigentlich das Problem mit KI‑generierter Software? Meiner Meinung nach hat es viel zu lange gedauert, bis eine funktionierende Version da war. Es gibt inzwischen einen „Play“-Button in ChatGPT, mit dem man Code direkt ausführen kann. Theoretisch könnte ChatGPT also ein paar Dinge testen, bevor es Code liefert — aber das passiert nicht. Nach über zwei langen Tagen hatte ich endlich eine funktionierende Version (inklusive einiger Teile in Hugo, die man unter About → Skills sehen kann). Ohne manuelle Eingriffe war es praktisch unmöglich, eine lauffähige Version zu bekommen.\nEin weiteres Problem ist, dass der Code ständig komplett neu geschrieben wird. Statt spezifische Funktionen zu einer getesteten und funktionierenden Basis hinzuzufügen, wird die gesamte Anwendung neu erstellt, was wiederum vollständige Tests erfordert. Es gibt keinerlei Eingabevalidierung, keine Testfälle und kein Fehlerhandling im generierten Code. Die Anwendung kann einfach abstürzen. Ich hätte meine Erwartungen vielleicht genauer formulieren können, aber außer Datumsauswahlfeldern wurde nichts automatisch ergänzt. Ein menschlicher Entwickler hätte vermutlich Eingabevalidierung, Sicherheitsprüfungen und Fehlerbehandlung von Anfang an eingebaut.\nIch habe ChatGPT alle erstellten Dateien gegeben, und es hat eine sehr detaillierte Analyse jedes Aspekts und jeder Schwachstelle der Anwendung geliefert, sowie eine Zusammenfassung:\nKategorie Bewertung CoPilot Architektur 6/10 6/10 Sicherheit 4/10 4/10 UX 7/10 6/10 Codequalität 7/10 7/10 Wartbarkeit 6/10 5/10 Ehrlich gesagt war ich ziemlich beeindruckt von der detaillierten Analyse, die ChatGPT geliefert hat. Andererseits: Was würdest du von einem Entwickler halten, der die Best Practices kennt, sie aber konsequent nicht umsetzt?\nWir wissen alle, dass gerade bei Schnittstellen, die nur von vertrauten technischen Mitarbeitern genutzt werden, Fehlerbehandlung und Eingabevalidierung nicht immer sehr detailliert umgesetzt werden. Manchmal erwarten wir einfach, dass die Leute eine Exception lesen können, um zu verstehen, was schiefgelaufen ist. Aber wäre es nicht großartig, wenn man diese einfachen, aber zeitaufwendigen Aufgaben einer KI überlassen könnte?\nDer CV‑Generator war — und ist — ein sehr schönes Experiment, und ich werde vielleicht irgendwann daran weiterarbeiten. Je mehr ich ihn nutze, desto mehr habe ich das Gefühl, dass etwas Ähnliches für viele Freelancer interessant sein könnte. Er eignet sich gut für ein solches Experiment, da er lokal läuft, ohne Internetverbindung, in einem Container, der nur eine kleine Angriffsfläche bietet. Der Teil auf meiner Homepage wird als statische Website ausgeliefert; der einzige aktive Code läuft auf dem Client‑Computer über JavaScript.\nEs gibt wahrscheinlich KI‑Modelle, die einen besseren Job machen als das allgemeine ChatGPT. Ich denke trotzdem, dass ChatGPT (oder andere KI) für Prototyping geeignet ist. Bevor ich die Idee für das gesamte Projekt hatte, habe ich ChatGPT gebeten, einen kleinen Teil der Funktionalität als Proof of Concept zu liefern, und das hat nach ein paar Versuchen funktioniert. Ich muss zugeben, dass ich nur sehr begrenzt manuell eingegriffen habe, und jedes Mal, wenn ich es tat, wurde der Prozess deutlich schneller. Wenn ich mit diesem Projekt weitermache, werde ich meine Methode definitiv ändern: von „lass die KI arbeiten und schauen“ hin zu „lass die KI Features generieren, optimiere und korrigiere manuell“. Außerdem würde ich das Projekt in kleinere Dateien aufteilen, in der Hoffnung, dass ChatGPT dann gezielt an einzelnen Aufgaben arbeiten kann, statt immer wieder alles neu zu schreiben.\nAbschließend sei gesagt: Bitte beachte, dass der Quellcode auf GitHub veröffentlicht ist, dieses Projekt also Open Source ist.\nWenn du in einem Unternehmen arbeitest, insbesondere in einem Softwareentwicklungsunternehmen, stelle sicher, dass die Nutzung von KI mit den Richtlinien deiner Firma übereinstimmt.\nEine vollwertige Closed‑Source‑Anwendung kann sehr unterschiedliche Anforderungen an den Datenschutz haben im Vergleich zu einem Open‑Source‑Projekt.\n","link":"https://www.findichgut.net/de/posts/cv-generator/","section":"posts","tags":null,"title":"CV Generator"},{"body":"","link":"https://www.findichgut.net/de/posts/","section":"posts","tags":null,"title":"Posts"},{"body":"Diese Seite befindet sich im Aufbau. Bitte beachten Sie meinen aktuellen Lebenslauf als PDF.\nCV EN CV DE FinTech DevOps Engineer (März 2023 - April 2025) Infrastructure as Code (IaC) Architektur und Bereitstellung von Microsoft Azure-Infrastruktur, Datadog und PagerDuty mittels Terraform und OpenTofu unter Anwendung von Infrastructure as Code (IaC), Automatisierung und Monitoring für skalierbares Infrastruktur-Management.\nOracle Umsetzung von Infrastructure as Code (IaC)-Prinzipien zur Standardisierung und Administration von Oracle-Datenbanken auf Microsoft Azure-VMs (Rocky Linux). Die automatisierte Installation, das Patching und die Initialisierung wurden mit Ansible-Playbooks realisiert, wodurch Reproduzierbarkeit, Compliance und Automatisierung gewährleistet wurden. Die Datenbankbereitstellung umfasste Passwort-Richtlinien, Benutzerkonten und Berechtigungen, eingebettet in Continuous-Deployment-Workflows für eine sichere und skalierbare Infrastrukturverwaltung. Migration von vorkonfigurierten Oracle Linux Datenbank VMs zu Rocky Linux (RHEL) VMs. Einführung von SchemaSpy zur automatisierten Analyse und Dokumentation von Datenbank‑Schemas, wodurch Transparenz, Wartbarkeit und Wissenstransfer verbessert wurden. Automatisierte Linux‑Systemkonfiguration mit Ansible (IaC) Erstellung, Erweiterung und Refactoring von Ansible-Playbooks für die Grundkonfiguration von Linux-VMs (Rocky Linux, Oracle Enterprise Linux, Ubuntu). Dazu gehörten die automatisierte Installation von Paketen und Repositories, die Bereitstellung von ClamAV, Patch-Management sowie Benutzermanagement (einheitliche UIDs über alle Systeme, Gruppenverwaltung, Verteilung von SSH-Public-Keys, Löschung von Benutzern, Sudo-Berechtigungen). Zudem wurde Postfix zur Nutzung eines Smarthosts für den Versand von Cron-Mails konfiguriert. Diese Tätigkeiten setzten Infrastructure as Code (IaC)-Prinzipien ein, um Automatisierung, Reproduzierbarkeit und standardisierte Infrastrukturverwaltung sicherzustellen. Microservice‑Bereitstellung mit Ansible und Verwaltung von Secrets Rollout hausintern entwickelter Microservices mittels Ansible, einschließlich der Erweiterung von Playbooks zur automatisierten Bereitstellung von Monitoring-Konfigurationen (Logs, Metriken, Service-Health) durch die Installation und Konfiguration des Datadog Agents Da die Deployments integraler Bestandteil der CI/CD-Pipelines für End-to-End-Tests waren, wurde die Optimierung der Deployment-Geschwindigkeit bei steigender Anzahl von Diensten besonders relevant. Die Playbooks wurden refactored, um den automatisierten Rollout von PKI-basierten Zertifikaten zu ermöglichen, Azure Key Vault für das Secrets-Management zu integrieren und eine intensive Nutzung von Ansible-Tags einzuführen, um gezielt Teilaufgaben auszuführen. Durch den Einsatz von Infrastructure as Code (IaC) wurde eine automatisierte, skalierbare und standardisierte Infrastrukturverwaltung ermöglicht.\nApache Kafka Im Rahmen des Projekts wurde Apache Kafka eingeführt, beginnend mit dem Aufbau einer Proof-of-Concept-Umgebung, die Entwicklern den Einstieg in Event Streaming erleichterte. Das Deployment erfolgte vollständig automatisiert mittels Ansible, wobei Benutzer, Berechtigungen und Topics provisioniert wurden. - - Der gesamte Prozess, von der initialen Einrichtung bis zur produktiven Nutzung, wurde unter Anwendung von Infrastructure as Code (IaC)-Prinzipien standardisiert. Für den Betrieb auf Kubernetes wurden zusätzlich Helm-Charts implementiert, um eine skalierbare und wiederholbare Bereitstellung sicherzustellen. Später erfolgte ein Upgrade von Kafka 3 auf Kafka 4, wodurch die Plattform an aktuelle Anforderungen angepasst und die langfristige Stabilität sowie Automatisierung gewährleistet wurden. Entwicklung und Implementierung eines Proof of Concept zur sicheren Anbindung von Apache Kafka an Keycloak mittels OAuth2 Kubernetes / AKS Ich administrierte Kubernetes‑Cluster auf Azure (AKS) und führte Deployments sowohl hausintern entwickelter Microservices als auch externer Third‑Party‑Dienste mittels Helm durch. Für End‑to‑End‑Testings innerhalb von CI/CD‑Pipelines setzte ich Namespace‑Separation ein, um isolierte Umgebungen bereitzustellen und parallele Deployments konfliktfrei zu ermöglichen. Ich verantwortete das Upgrade des Traefik Ingress Controllers von Version 2 auf Version 3 Bei auftretenden Problemen übernahm ich das Debugging sowohl auf Cluster‑Ebene als auch im Kontext einzelner Deployments, um Ursachen schnell zu identifizieren und nachhaltige Lösungen umzusetzen. Durch den Einsatz von Autoscaling‑Mechanismen wie Cluster Autoscaler gewährleistete ich eine dynamische Anpassung der Ressourcen an die jeweilige Last. Container Dienste Ich verantwortete die Bereitstellung von Docker‑Images für den Einsatz in CI/CD‑Pipelines, Kubernetes‑Deployments und den produktiven Betrieb in Docker‑nativen Umgebungen. Zur Sicherstellung der Sicherheit führte ich regelmäßige Scans mit Trivy durch und etablierte einen nächtlichen, automatisierten Rebuild sämtlicher Images. Dabei bewertete ich identifizierte CVEs und leitete geeignete Maßnahmen zur Risikominimierung ein, um eine robuste und vertrauenswürdige Container‑Infrastruktur zu gewährleisten. Betrieb von Container‑Diensten auf Podman und Docker, darunter Nginx, SonarType Nexus, Squid sowie ein Gradle Build Cache. Rollout von Konfigurationen und Start der Container über Ansible, um eine konsistente und automatisierte Bereitstellung sicherzustellen. Durchführung regelmäßiger Updates der Applikationen, um Sicherheit, Stabilität und aktuelle Funktionalität zu gewährleisten. Python \u0026amp; Automatisierung Entwicklung eines Python‑Scripts zur Veröffentlichung von Markdown‑Inhalten direkt in Confluence, integriert in die von mir aufgebaute Reporting‑Pipeline, um eine umfassende Übersicht über alle Systeme in Azure bereitzustellen. Automatisierte Aktualisierung von Secrets in Azure Key Vaults, inklusive Passwortrotation bei jedem Deployment zur Erhöhung von Sicherheit und Compliance. Implementierung von Benachrichtigungen an Microsoft Teams, beispielsweise bei fehlgeschlagenen Pipelines, um schnelle Sichtbarkeit und Reaktionsfähigkeit sicherzustellen. Aufbau eines Benachrichtigungssystems für verfügbare Software‑Updates von Third‑Party‑Applikationen (z. B. Datadog Agent, Ansible, Kafka), basierend auf RSS‑Feeds mit Filterfunktionen, um ausschließlich relevante Informationen zu verbreiten. Distributed Ledger (Corda / CENM) Betrieb und Administration von Corda 4 Nodes sowohl klassisch mit Ansible als auch containerisiert mit Kubernetes/Helm Rollout, Identitätsmanagement und Updates für Nodes und Netzwerke, inkl. Troubleshooting bei komplexen Fehlerbildern Unterstützung beim Debugging und Build‑Prozess von CorDapps (Corda Distributed Applications) Aufbau eines privaten Netzwerks mit dem Corda Enterprise Network Manager (CENM) nach Abschaltung des von R3 betriebenen Netzwerks Migration von Daten und Identitäten aus dem R3‑Netz in das neue private Netzwerk Entwicklung einer Pipeline für Testcases und Update‑Validierung, um Rollouts und Wartungsschritte reproduzierbar und sicher zu gestalten Optimierung des Infrastruktur‑Designs im Rahmen des privaten Netzwerks, mit Fokus auf Stabilität, Sicherheit und Compliance Implementierung von Proxy-Lösungen Erstellung eines RPM-Pakets für den Dante-SOCKS-Proxy sowie Rollout mit dynamischem Regelsatz über Ansible. Aufbau einer Proxy-Lösung auf Basis von Squid, um den externen Zugriff in Testumgebungen analog zur Produktionsumgebung einzuschränken. Atlassian and CI/CD DevOps Engineer (April 2016 - März 2022) Migration von Bitbucket/Bamboo zu GitLab PaaS als konzernweite CI/CD‑Plattform Aufbau einer Proof‑of‑Concept‑Umgebung auf AWS mit besonderem Fokus auf Berechtigungsmodelle zur Erfüllung der Sicherheitsanforderungen des Unternehmens Einrichtung von lokalen GitLab Runners zur Evaluierung von Pipeline‑Funktionalitäten Integration mit Azure AD via SAML für zentrales Identitätsmanagement Implementierung von Pipeline‑Templates für gängige Anwendungsfälle (z. B. Artefakt‑Publishing, Container‑Builds mit Kaniko rootless und Docker) Zusammenarbeit mit dem PaaS‑Provider (GitLabHost) für Setup und Troubleshooting Unterstützung von Projektteams mit unterschiedlichen Tech‑Stacks (Maven/Gradle \u0026amp; Java, C++ mit Cross‑Compiling, API‑Gateways mit speziellen Anforderungen, Python) Zusammenarbeit mit anderen Mitgliedern des Migrationsteams zur effektiven Kommunikation mit Projektteams Support und Debugging von Pipeline‑Problemen, inklusive Anpassung der Runner‑Konfiguration bei Bedarf Migration von Deployment‑Prozessen und Anpassung der Deployment‑Strategien an GitLab‑Standards Durchführung von Projektmigrationen mit nahezu null Downtime für Entwickler, um die Geschäftskontinuität sicherzustellen Bitbucket / Bamboo Integration von Bamboo in die Atlassian‑Plattform des Konzerns Aufbau zusätzlicher Instanzen in verschiedenen Netzsegmenten Betrieb und Support von Bamboo Agents, inkl. Updates von Container‑Images und Troubleshooting Spezieller Support von Bamboo Agents auf macOS für iOS‑Builds Unterstützung bei Build‑Pipeline‑ und Deployment‑Problemen Betrieb mehrerer Instanzen (E/K/P) und Durchführung von plattformübergreifenden Updates Crowd Einrichtung von Crowd als zentrale Authentifizierungs‑ und Autorisierungsplattform für alle Atlassian‑Produkte Betrieb mehrerer Instanzen (E/K/P) und Durchführung von Updates Nutzung von LDAP‑Queries, lokalen Benutzern und Azure AD als Identitätsquellen Jira / Confluence Unterstützung von Entwicklern bei der Plugin‑Entwicklung Bereitstellung der Plattformen in verschiedenen Netzbereichen mit unterschiedlichen Benutzergruppen Betrieb mehrerer Instanzen (E/K/P), Durchführung von Updates und Koordination von Plugin‑Tests sowie Testcases an der Basisapplikation Troubleshooting von Störungen, Stabilitäts‑ und Performanceproblemen Teilweise Support bei Benutzerproblemen Aufbau einer neuen Infrastruktur zur Migration auf die Datacenter Edition SonarQube Bereitstellung und Update der SonarQube‑Plattform Einbindung von SonarQube in CI/CD-Pipelines zur automatisierten Code-Analyse und Nutzung als Quality Gate. Artifactory Bereitstellung und Update von JFrog Artifactory Einrichtung von Repositories und Registries zur Ablage eigener Build‑Artefakte sowie als Cache für öffentliche Dependencies Puppet / Ansible Rollout und Konfiguration sämtlicher Applikationen sowie der zugehörigen Reverse Proxies (Apache) mit Puppet Enterprise. Migration des Rollouts zu Ansible, inklusive vollständiger Neuerstellung von Playbooks zur Plattformmigration und zukünftigem Deployment Sonstiges Enge Zusammenarbeit mit anderen Infrastruktur‑Teams (DBA, Firewall, Linux, WebApp, Netzwerk, Loadbalancer, AD) Direktes Debugging von Applikationsproblemen auf Produktiv‑Instanzen sowie Anpassung von Datenbankinhalten für Migrations‑ und Testzwecke, einschließlich regelmäßiger Unterstützung der Testumgebungen Beratung zur Umsetzbarkeit von Sicherheitsrichtlinien Validierung und Mitigation von CVEs, insbesondere Log4Shell Bearbeitung von herausfordernden Sonderfällen und nicht standardisierten Anforderungen, mit dem Ziel, praktikable und stabile Lösungen zu liefern Schulung und Zertifizierung in SAFe – DevOps DNS Management DevOps Engineer (Dezember 2016 - Mai 2021) DNS‑Administration (Unbound \u0026amp; Bind) Administration von Unbound‑ und Bind‑DNS‑Systemen, Betrieb von Internet‑Resolvern und Pflege von Zonendateien Erstellung und Verwaltung von Zonendateien, inklusive Einrichtung von Zonendelegationen Pflege aller relevanten DNS‑Records: A, AAAA, CAA, CNAME, SPF, TXT Deployment von Software, Zonen und Konfigurationen mittels Ansible‑Automatisierung Prüfung und Umsetzung von Kundenanforderungen im DNS‑Umfeld Beratung interner Teams zu DNS‑Strategien und Best Practices RPM‑Packaging \u0026amp; CI/CD‑Integration Erstellung und Pflege von RPM‑Paketen für DNS‑ und verwandte Softwarekomponenten Build und Validierung der RPMs über eine CI/CD‑Pipeline Übergabe der Artefakte an das Linux‑Team zur Integration in das zentrale Repository SMTP and Email Infrastructure DevOps Engineer (Dezember 2016 - Mai 2021) SMTP-Kette \u0026amp; Mail-Infrastruktur Administration der SMTP-Kette, Abdeckung der Kommunikation zwischen Anwendungen, Internet und internen Backend-Systemen Konfiguration und Optimierung von Postfix und Postfwd, Pflege von Routing-Regeln und Sicherstellung zuverlässiger Mailzustellung Beratung interner Teams und Kunden zu Mailing-Anforderungen von Anwendungen im Einklang mit Unternehmensrichtlinien Prüfung eingereichter Spezifikationen auf technische Genauigkeit und Richtlinienkonformität, Umsetzung in Postfwd-Regeln Nahtlose Integration der Mail-Infrastruktur mit internen und externen Systemen zur Gewährleistung sicherer Kommunikation SMTP Chain \u0026amp; Mail Infrastructure Administration of the SMTP chain, covering communication between applications, the internet, and internal backend systems Configuration and optimization of Postfix and Postfwd, maintaining routing rules and ensuring reliable mail delivery Consultation with internal teams and customers on application mailing requirements in line with corporate policies Review of submitted specifications for technical accuracy and policy compliance, translated into Postfwd rules Seamless integration of mail infrastructure with internal and external systems to guarantee secure communication Anti-Spam \u0026amp; Malware-Schutz Betrieb und Feinabstimmung von Expurgate und Postgrey für Spam-Filterung und Greylisting Anpassung von Regeln und Konfigurationen zur Minimierung von False Positives und Verbesserung der Erkennungsgenauigkeit Analyse und Troubleshooting von False Positives in der Spam-Erkennung Kontinuierliche Optimierung des Anti-Spam- und Malware-Schutzes zur Sicherstellung zuverlässiger Kommunikation Infrastruktur-Migration \u0026amp; Automatisierung Migration der gesamten Mail-Infrastruktur auf neue Systeme gemäß Vorgaben des Serverbetriebsteams für SLES12 Server- und Netzwerkplanung, Entwicklung von Merge-Strategien und vollständige Neugestaltung von Ansible-Playbooks für Applikations- und Konfigurations-Rollouts Neuaufbau und Betrieb aller Komponenten (Postfix, Postfwd, Postgrey, Custom Scripts) in Chroot-Umgebungen Eigenständiges Packaging von Applikationen als RPMs über GitLab CI/CD-Pipelines Etablierung einer robusten, testbaren und richtlinienkonformen Mail-Infrastruktur, Beseitigung von Problemen des vorherigen Betriebsmodells OTRS-Ticketing-System Einführung und Implementierung des OTRS-Ticketing-Systems als mailbasiertes Support-Tool Manuelle Kompilierung verschiedener CPAN-Module und Auflösung von Abhängigkeiten Konfiguration von OTRS und Mail-Routing in enger Zusammenarbeit mit dem Exchange-Team Einrichtung und Konfiguration erforderlicher Mailboxen sowie Aufbau und Pflege der OTRS-Queues für strukturierte Ticketverteilung Migration von OTRS von Oracle DB zu PostgreSQL (OFork) zur Sicherstellung langfristiger Unterstützung und Stabilität Open-Source-Beiträge Beiträge zum Postfix-Projekt, einschließlich Bug-Reports, Diskussionen und kleiner Fixes Zusammenarbeit mit den Maintainers Wietse Venema und Victor Duchovni Mehrere Beiträge dokumentiert in den offiziellen Postfix-Changelogs Infrastructure \u0026amp; Automation Infrastructure \u0026amp; Operations Engineer (März 2016 - Januar 2017) Office- und Client-Management Verantwortung für das gesamte Office-Netzwerk und alle Clients, inklusive Aufbau neuer Arbeitsplätze, Rollout neuer Systeme und Verwaltung von Softwarelizenzen Administration von Office 365 in einer Hybrid-Umgebung mit Active Directory und Azure AD Connect: Benutzer wurden lokal im AD angelegt und automatisch in die Cloud synchronisiert, wodurch Office-Lizenzen und Mailpostfächer bereitgestellt wurden Einführung von OCS Inventory als Inventarisierungslösung, um Hardware- und Softwarebestände transparent und effizient zu verwalten Direkte Kommunikation mit Kunden und Anwendern zu technischen Problemen, geplanten Updates und Wartungsarbeiten, um einen reibungslosen Betrieb sicherzustellen Collaboration \u0026amp; Atlassian Platform Betrieb und Administration der Atlassian-Plattform mit Jira und Confluence Einrichtung neuer Projekte, Anpassung von Workflows und Unterstützung der Teams bei der optimalen Nutzung der Plattform Netzwerk \u0026amp; VPN Aufbau und Betrieb von VPN-Verbindungen zwischen verschiedenen Standorten und Rechenzentrums-Systemen, um eine sichere und stabile Standortvernetzung zu gewährleisten Planung und Umsetzung des notwendigen Routings sowie die Segmentierung von Netzwerken durch definierte IP-Adressbereiche, wodurch eine klare Trennung von Systemen und Diensten erreicht wurde Einführung von OpenVPN für zuverlässige Home-Office-Anbindungen, wodurch unsichere Workarounds wie dauerhaft laufende Rechner mit TeamViewer ersetzt wurden Konzeption und Implementierung von Firewalls auf Basis von iptables, inklusive Definition granularer Regeln zur Absicherung der Infrastruktur und Minimierung von Angriffsflächen Kontinuierliche Analyse und Optimierung der Netzwerkarchitektur, um Performance und Sicherheit gleichermaßen sicherzustellen Virtualisierung \u0026amp; Serverbetrieb Aufbau und Verwaltung von Windows- und Linux-VMs auf Basis von Hyper-V Operation und Wartung von Produktionsanwendungen auf Windows-Servern mit IIS zur Bereitstellung von .NET-Anwendungen sowie Einsatz von Apache-Webservern auf Debian als Reverse Proxy, einschließlich Einrichtung und Pflege Betrieb interner Infrastruktur und Kundenapplikationen auf Debian-Systemen Analyse und Behebung von Performance-Problemen in produktiven Umgebungen Migrationen \u0026amp; Integration Migration von Redmine auf eine neue Umgebung mit Teildatenmigration Überführung kompletter E-Mail-Postfächer von Google Mail zu Office 365 Betreuung und Management der IT-Infrastruktur für ein zusätzliches Office, inklusive Anpassung von Netzwerken und Systemen Automatisierung \u0026amp; DevOps Einführung von Puppet zur Automatisierung administrativer Aufgaben und zur Standardisierung von Konfigurationen Aufbau und Pflege von Build-Konfigurationen in TeamCity für .NET/C# Projekte, inklusive Definition von Build-Schritten, Abhängigkeiten und Umgebungsvariablen Bereitstellung konsistenter Build-Environments, um Entwicklern eine stabile Grundlage für Kompilierung und Tests zu bieten Einführung von GitLab zur Unterstützung von Code Reviews und zur Förderung kollaborativer Entwicklungsprozesse Unterstützung der Entwicklerteams bei der Nutzung von TeamCity und GitLab, Troubleshooting von Build-Problemen und Verbesserung der Entwicklungs-Workflows Unterstützung bei der Entwicklung und Integration kundenspezifischer Plugins für Jira und Confluence, inklusive Beratung und technischer Begleitung Datenbanken Einrichtung, Betreuung und Management von MSSQL-Datenbanken für produktive Anwendungen, inklusive Performance-Optimierung und Backup-Strategien Aufbau, Betrieb und Pflege von PostgreSQL-Datenbanken Konzeption, Aufbau und Betrieb von MySQL-Datenbanken und Clustern, inklusive Hochverfügbarkeits-Setups und Replikation zur Sicherstellung von Ausfallsicherheit Laufende Analyse und Troubleshooting von Performance-Problemen, inklusive Optimierung von Queries und Anpassung von Konfigurationsparametern Enge Zusammenarbeit mit Entwicklerteams zur Bereitstellung stabiler Datenbankumgebungen für Applikationen und kundenspezifische Lösungen Net Mobile AG Systems Engineer (September 2015 - Februar 2016) Entwicklung eines Python-Moduls zur Verwaltung von Dell iDracs Deployment und Betrieb von Java-Applikationen Phoenix Contact GmbH \u0026amp; Co KG System Administrator - Applications and Operations (Dezember 2011 - April 2013) Technischer Plattform‑Support für ERP‑Einführung (BaanLN / Infor LN) Unterstützung bei der Einführung einer neuen ERP‑Plattform (heute Infor LN). Bereitstellung und Konfiguration von Testinstanzen zur Validierung von Funktionalität und Performance. Durchführung von Sizing‑Analysen und Infrastrukturplanung zur optimalen Dimensionierung der Plattform. Projekt‑Support inklusive Troubleshooting und enger Zusammenarbeit mit Fachbereichen. Betrieb von Java‑Applikationen und Webinfrastruktur Bereitstellung und Administration von Apache Tomcat Application Servern zur Ausführung geschäftskritischer Java‑Applikationen. TLS‑Terminierung und Reverse‑Proxy‑Konfiguration auf Apache zur sicheren Bereitstellung von Webanwendungen. Troubleshooting von Deployment‑ und Laufzeitproblemen sowie nachhaltige Fehlerbehebung zur Sicherstellung hoher Verfügbarkeit. Migration und Betrieb der Digital Asset Management Plattform Canto Cumulus Migration der bestehenden Cumulus‑Plattform auf eine neue Infrastruktur und Redesign der Systemarchitektur. Zusammenarbeit mit dem Hersteller zur Anpassung der Datenbankreplikation für Proxy‑tauglichen Betrieb. Bereitstellung, Konfiguration und laufender Betrieb der Plattform zur zentralen Verwaltung digitaler Assets. Implementierung von Monitoring und Troubleshooting zur Sicherstellung von Stabilität, Skalierbarkeit und hoher Verfügbarkeit. Internetproxy Verantwortlich für den sicheren Betrieb der Unternehmens‑Proxy‑Infrastruktur mit McAfee Webwasher, inklusive Traffic‑Analyse, Risikomanagement und kontrollierter Freigabe gesperrter Webseiten.\nEinführung und Betrieb des Multi‑Projektmanagement‑Tools PlanView mit SharePoint‑Integration Unterstützung bei der Einführung von PlanView als zentrales Multi‑Projektmanagement‑System. Planung und Bereitstellung der technischen Ressourcen und Infrastruktur für den Betrieb der Plattform. Integration mit Microsoft SharePoint zur zentralen Dokumentenverwaltung und Workflow‑Unterstützung. Betrieb und Administration der Plattform zur Unterstützung von Projektportfoliomanagement und Ressourcenkoordination. Architektur und Pilotierung einer Configuration Management Database (CMDB) Konzeption und Implementierung einer zentralen CMDB zur Verwaltung von Infrastruktur‑ und Applikationsdaten. Einsatz von Puppet für automatisierte Konfiguration und Deployment. Integration von Icinga2 für Monitoring und Alerting. Einbindung von DNS‑Informationen zur Ablösung manueller Dokumentation in MediaWiki. Entwicklung einer Oracle APEX‑basierten Oberfläche für zentrale Verwaltung und Reporting. Projektziel: Sicherstellung von Transparenz, Konsistenz und Effizienz im Betrieb durch Automatisierung und integriertes Monitoring. Einführung von Siemens Teamcenter (PLM‑System) Aufbau und Bereitstellung der Serverinfrastruktur für ein großes Projektteam. Umsetzung technischer Anforderungen zur Unterstützung der Teamcenter‑Einführung. Automatisierte Installer‑Umgebung für SLES (Linuxbetrieb) Aufbau einer unbeaufsichtigten Installationsumgebung mit SUSE Linux Enterprise Server (SLES) Einsatz von AutoYaST mit manuell gepflegten XML‑Profilen zur Standardisierung von Installationen Nutzung von PXE‑Boot und DHCP für automatisierte Systemstarts Bereitstellung konsistenter und reproduzierbarer Linux‑Installationen zur Unterstützung des Betriebs Beitrag zur Effizienzsteigerung und Skalierbarkeit im Linuxbetrie Telefónica Deutschland GmbH Systems Engineer (Januar 2008 - November 2011) Administration und Betrieb von Unix-/Linux‑Servern (Debian, Red Hat, Solaris) Installation und Konfiguration von Systemen und Diensten für den zuverlässigen Betrieb. Monitoring und Verfügbarkeitskontrolle mit Munin und Big Brother, inklusive Troubleshooting bei Störungen. Teilnahme am Bereitschaftsdienst, mit häufigem Fixen von Problemen auf zuvor unbekannten Systemen unter Zeitdruck. Durchführung von Updates, Security Hardening und Patch‑Management zur Sicherstellung von Stabilität und Sicherheit. Migration und Modernisierung der XMPP‑basierten Messaging‑Plattform Ablösung der bestehenden jabberd‑Implementierung mit PostgreSQL und Perl‑Skripten durch eine ejabberd‑basierte Lösung mit MySQL. Entwicklung einer automatisierten Roster‑Erstellung auf Basis von PHP und Integration mit dem OpenLDAP‑Verzeichnis. Verbesserung der Wartbarkeit und Vereinfachung der Administration durch moderne Technologien und zentrale Benutzerverwaltung. Unterstützung der internen Kommunikation durch eine stabilere und besser integrierte Messaging‑Plattform. Aufbau und Betrieb von Mailinfrastrukturen für interne und externe Systeme Einrichtung und Pflege der internen Mailplattform basierend auf Dovecot, Postfix und Horde Webmail. Konfiguration von Load Balancern zur Lastverteilung und Hochverfügbarkeit der Dovecot‑Instanzen. Ablage und Verwaltung der Mailstores auf NetApp‑Storage‑Systemen zur Sicherstellung von Performance und Zuverlässigkeit. Betrieb und Administration von Kundensystemen mit bis zu 2 Millionen Postfächern, basierend auf Postfix, Qmail, Sendmail, Courier und Dovecot Unterstützung bei der Einführung von IDM‑Systemen Definition von LDAP‑Attributen und Validierungsregeln, gemeinsame Tests zur Sicherstellung der Compliance, sowie Entdeckung eines kritischen Dovecot‑Bugs, der die Mailplattform gefährdet hätte, dadurch Stabilität gesichert und Ausfälle verhindert.\nEntwicklung einer webbasierten Self‑Service‑Oberfläche für LDAP‑Verwaltung Aufbau einer Verwaltungsoberfläche mit PHP und Zend Framework. LDAP‑Authentifizierung zur sicheren Anmeldung und zentralen Benutzerverwaltung. Formularvalidierung für konsistente und fehlerfreie Eingaben. Pflege und Anlage von Gruppen sowie Ablage von SSH‑Public Keys im LDAP‑Verzeichnis. Einführung von Self‑Service‑Funktionen für Gruppen‑Owner, um Verwaltungsaufgaben zu delegieren und das zentrale Admin‑Team zu entlasten. Migration der Samba‑Plattform auf hochverfügbare Cluster‑Architektur Migration der Legacy‑Samba‑Plattform auf ein active‑passive Cluster mittels CTDB. Überführung von rund 3 TB Daten auf die neue Infrastruktur. Anpassung der Verzeichnisstrukturen zur Einführung von Remote‑Profilen. Integration der Umgebung als Windows‑Domäne für zentrale Authentifizierung und Rechteverwaltung. Education \u0026amp; Certifications IT Specialist for System Integration (Januar 2005 - Dezember 2008) Ausbildung zum Fachinformatiker für Systemintegration bei der IKB Deutsche Industriebank AG Betriebswirtschaftliches Basisseminar (Siemens Professional Education, Paderborn) Datenbankadministration Internet-Server \u0026amp; Web-Technologien IT-Management \u0026amp; IT-Security Netzwerkarchitektur \u0026amp; TCP/IP-Systemverwaltung Projektmanagement inkl. MS-Project UNIX Systemverwaltung / SOLARIS Voice over IP \u0026amp; Weitverkehrsnetze Implementierung einer Dokumentationsplattform (BIPo – BetriebsInformationsPortal)\nKonzeption und Umsetzung einer zentralen Dokumentationsplattform für die IKB Data auf Basis von PHP, IIS und MSSQL. Anbindung des Microsoft Indexing Servers zur Volltextsuche in Dokumenten und Anhängen. Integration mit der Oracle‑CMDB zur automatischen Erkennung von Servernamen in Artikeln und deren Verlinkung mit CMDB‑Einträgen. Bereitstellung einer einheitlichen Wissensbasis zur Verbesserung von Zugänglichkeit und Effizienz im Betrieb Fernuniversität Hagen Student (Januar 2010 - Dezember 2010) Wissensbasierte Systeme Sicherheit im Internet Management von Softwareprojekten ","link":"https://www.findichgut.net/de/cv/","section":"","tags":null,"title":"Curriculum Vitae"},{"body":" Code Badge Issuer Link AZ-104 Microsoft Certified: Azure Administrator Associate Microsoft AZ-305 Microsoft Certified: Azure Solutions Architect Expert Microsoft AZ-500 Microsoft Certified: Azure Security Engineer Associate Microsoft CAPA Certified Argo Project Associate The Linux Foundation CBA Certified Backstage Associate The Linux Foundation CCA Cilium Certified Associate The Linux Foundation CGOA Certified GitOps Associate The Linux Foundation CKA Certified Kubernetes Administrator The Linux Foundation CKAD Certified Kubernetes Application Developer The Linux Foundation CKS Certified Kubernetes Security Specialist The Linux Foundation CNPA Certified Cloud Native Platform Engineering Associate The Linux Foundation Golden Kubestronaut Golden Kubestronaut The Linux Foundation ICA Istio Certified Associate The Linux Foundation KCA Kyverno Certified Associate The Linux Foundation KCNA Kubernetes and Cloud Native Associate The Linux Foundation KCSA Kubernetes and Cloud Native Security Associate The Linux Foundation Kubestronaut Kubestronaut The Linux Foundation LFCS Linux Foundation Certified Systems Administrator The Linux Foundation OTCA OpenTelemetry Certified Associate The Linux Foundation PCA Prometheus Certified Associate The Linux Foundation ","link":"https://www.findichgut.net/de/certifications/","section":"","tags":null,"title":"Certifications"},{"body":"This page is under construction. Please come back soon.\n","link":"https://www.findichgut.net/de/about/","section":"","tags":null,"title":"About"},{"body":"Liebe Leserinnen und Leser,\nich habe es geschafft! Während der Cyber Week habe ich beschlossen, Golden Kubestronaut zu werden – und endlich ist es geschafft!\nEs ist ein stolzes Gefühl, etwas erreicht zu haben, was bisher nur etwas mehr als 300 Menschen geschafft haben.\nPrüfungsübersicht Code Name Typ Bestehensgrenze ICA Istio Certified Associate Performance-based 68 LFCS Linux Foundation Certified Sysadmin Performance-based 67 PCA Prometheus Certified Associate Multiple-Choice 75 CGOA Certified GitOps Associate Multiple-Choice 75 CAPA Certified Argo Project Associate Multiple-Choice 75 CNPA Cloud Native Platform Engineer Associate Multiple-Choice 75 CBA Certified Backstage Associate Multiple-Choice 75 KCA Kyverno Certified Associate Multiple-Choice 75 OTCA OpenTelemetry Certified Associate Multiple-Choice 75 CCA Cilium Certified Associate Multiple-Choice 75 Viele Details zu den überwachten Prüfungen findet ihr in meinem Kubestronaut Blogpost.\nUm Goldener Kubestronaut zu werden, musst du zunächst den Titel Kubestronaut besitzen. Sobald du ihn hast, musst du nichts weiter tun, um deine Vorteile zu erhalten.\nVorteile für Goldene Kubestronauten Als Goldener Kubestronaut erhältst du derzeit einen Rucksack, eine Beanie-Mütze und 60 % Rabatt auf jede neue CNCF-Zertifizierung. Außerdem bekommst du jedes Jahr ein kostenloses Ticket für ein Kubernetes Community Days-Event sowie 50 % Rabatt auf die Anmeldung zur KubeCon.\nDein Status als Goldener Kubestronaut gilt lebenslang. Allerdings kann dein Kubestronaut-Titel verfallen, wenn du dich nicht erneut zertifizieren lässt. Solange du deinen Kubestronaut-Titel behältst, profitierst du zusätzlich von einem ThriveOne-Abonnement.\nRückblick Tagebuch 9. Februar, ich hatte bereits kurz in den Istio-Kurs bei KodeKloud reingeschaut, als ich mich auf die CKS-Prüfung vorbereitete. Nun war es Zeit, mit den ICA-Vorbereitungen zu starten. Ich habe den Kurs wie gewohnt in 2-facher Geschwindigkeit durchgesuchtet, alle Labs und Übungsprüfungen absolviert und fühlte mich vorbereitet. Wieder 24 Stunden warten auf die Registrierung. Bei Microsoft-Prüfungen habe ich manchmal erst kurz vor Start gebucht, bei der Linux Foundation muss man aus irgendeinem Grund 24 Stunden warten. Spät am Abend habe ich den Laptop weggelegt. Also wird die Prüfung auf den 11. Februar terminiert – Zeit für eine weitere Hands-on-Prüfung.\n10. Februar, während ich wartete, begann ich mit der LFCS-Prüfungsvorbereitung. Anders als bei LPIC-Prüfungen muss man die Aufgaben direkt auf dem System lösen. Und wenn man die iptables-Befehle nicht auswendig lernen möchte, muss man wissen, wie man sie auf dem System findet. Als erlaubte Ressourcen sind nur die System-Dokumentation, Man-Pages oder Pakete der Distribution zugelassen. Für mich war die LFCS-Vorbereitung relativ einfach, da ich seit 25 Jahren mit Linux arbeite. Gleichzeitig war es herausfordernd, weil ich schon lange keinen manuellen useradd-Befehl mehr ausgeführt hatte. Normalerweise erledige ich solche Aufgaben mit Ansible, und ich habe gemerkt, wie oft ich Google statt Man-Pages benutzt habe. Aber der Großteil der Prüfung war nur ein Auffrischen.\n11. Februar, ICA-Prüfung bestanden. Obwohl ich nie mit Istio produktiv gearbeitet habe, war es dank der Labs und der Dokumentation gut zu meistern. Eine Prüfung geschafft, noch neun übrig.\n12. und 13. Februar, Videos geschaut, Prüfungen durchgegangen, alles entspannt. Abschluss mit dem Killer.sh Simulator. Für ICA gibt es keinen, für LFCS immerhin einen. Auch wenn KodeKloud Mock-Prüfungen anbietet, ist der Killer.sh Simulator praktisch die finale Überprüfung. Normalerweise schwieriger als die echte Prüfung, die Fragetypen ähnlich, Aufgaben in verschiedenen Umgebungen.\n14. Februar, LFCS-Prüfung. Los geht’s! Nach der Prüfung direkt mit PCA-Vorbereitungen weitergemacht. Für Freelancer geht man oft nach Kundenbedarf, viele Projekte verlangen Prometheus-Kenntnisse. PCA war die logische Konsequenz.\nIch sah weiterhin Videos und machte Labs, als mir klar wurde, dass die CNPE-Prüfung ab 1. März Teil des Golden Kubestronaut-Programms sein würde. Die Certified Cloud Native Platform Engineer-Prüfung ist hart und performance-basiert. Generell kein Problem, aber bisher kein Kurs bei KodeKloud und kaum Informationen. Ich beschloss, den Pfad vorher abzuschließen und die freie ThriveOne-Subscription zu nutzen, die bereits in meinem Kubestronaut zu Golden Kubestronaut Bundle enthalten war.\n15. Februar, LFCS mit 100% bestanden. PCA gebucht. Start der CGOA-Vorbereitungen. Noch acht Prüfungen übrig.\n16. Februar, während ich auf PCA wartete, CGOA-Vorbereitungen abgeschlossen. Multiple-Choice, Kurs auf Argo fokussiert, viele Labs. Mit etwas DevOps-Erfahrung nicht zu schwer. Danach CAPA-Kurs gestartet. PCA bestanden, CGOA gebucht – 30% golden.\n17. Februar, CGOA-Prüfung. Alle Mock Exams des KodeKloud-Kurses sowie die Simulatoren von Hidde van Griensven in seinem GitHub-Repository genutzt. Da der Simulator nur grundlegende Fragen ohne Quellcode oder Bilder enthält, arbeitete ich zusätzlich mit den Practice Exams aus dem CNCF Exams-Repository auf GitLab. Erst wenn alle Ergebnisse auf gute Punktzahlen hindeuteten, buchte ich die echte Prüfung. CGOA bestanden, CAPA gebucht. Backstage wartet … 4/10.\n18. Februar, CAPA-Prüfungstag. Gut vorbereitet, fast fertig mit CBA-Vorbereitungen, als die ersten Ergebnisse der KodeKloud-Mock-Prüfung kamen – ok, nicht fantastisch, aber ok. Hivagr, eher mittel, aber ok. Dann CNCF-Exam-Simulator gestartet. Anfangs alles gut, dann nach Kategorien sortierte Fragen – bei der Customization-Kategorie ging es steil bergab, da ich weder NodeJS noch React-Entwickler bin. Entscheidung getroffen: Backstage am nächsten Tag nicht. Videos und Labs nochmals geprüft, dann Fokus auf CNPA. Halbzeit.\n19. Februar, da die CBA-Kurse bereits Teile der CNPA-Prüfung abdeckten und ich dachte, es sei einfacher, zwischendurch eine Pause von produktspezifischen Prüfungen zu machen, beendete ich die CNPA-Vorbereitungen und buchte die Prüfung. Anschließend beschäftigte ich mich mit Tools wie Yarn, Backstage CLI und der Plugin-Implementierung. Fast hätte ich einen React-Kurs bei Udemy begonnen. Dann Start der KCA-Vorbereitungen. Am Ende des Tages beschloss ich meiner Frau, dass ich die CBA-Prüfung versuchen müsste, auch wenn sie nur meine Lücken aufzeigt.\n20. Februar, Tag mit Diskussionen über React, MaterialUI und Backstage mit KIs, sowie zusätzliche Übungsprüfungen von ihnen. Danach Kyverno, KCA noch ausstehend. Kyverno-Vorbereitungen abgeschlossen, fühlte mich für Backstage „bereit“.\nWie gewohnt stoppte ich eine Stunde vor CNPA, um den Kopf freizubekommen. Während der Prüfung merkte ich, wie müde ich eigentlich war. Dauerte länger als üblich, nicht nur wegen der vielen Fragen. Mission: erledigen.\nNormalerweise bearbeite ich die Prüfung, gehe danach alle markierten Fragen durch und prüfe alle Antworten noch einmal. Diesmal war ich zu müde, aber zuversichtlich, genug Punkte zu haben. Ich überprüfte nur die markierten Fragen. Es war mehr als ausreichend.\nAn diesem Tag sorgte ich mich auch, die letzten Prüfungsplätze könnten knapp werden, also buchte ich sie auf den 28. Februar. Ich wusste, dass ich jederzeit umplanen könnte. 6/10.\n21. Februar, Tag, um meinen Nemesis zu besiegen. Eigentlich nicht so dramatisch. Backstage gefällt mir, die Möglichkeiten sind spannend. Problem: Entwicklungsteil der Prüfung und fehlende Zeit, um React wirklich zu lernen. Weitere Diskussionen mit KIs, Cheat-Sheets für Befehle, dann alles beiseitegelegt und CNPA abgeschlossen. CBA-Prüfung selbst? Schlechter als gedacht. Frage für Frage markiert, bei Unsicherheit beantwortet und markiert. Interessanterweise war die Antwort beim Zurückgehen auf die erste markierte Frage klar. Meiste Antworten korrekt. Mischung aus Vorbereitung und educated guessing – bestanden, und sogar ein gutes Ergebnis.\nOpenTelemetry und Cilium ans Ende gelegt, da die Kurse deutlich längere Videos hatten. Lange Strecke, aber eine Prüfung weniger – 70% golden.\n22. Februar, neben KCA noch OTCA-Vorbereitungen. Theorie-reicher als gedacht. Am Ende des Tages OTCA abgeschlossen, erste CCA-Vorbereitungen gemacht – nur halb so lang wie im Lernpfad angegeben. Fast fertig, nur noch zwei Prüfungen.\n23. Februar, Hochzeitstag – 10 Jahre. Keine Prüfungsgedanken. Selbstbewusst, CCA-Vorbereitungen abgeschlossen. OTCA auf 15:30 Uhr gebucht, Einchecken ab 15:00 Uhr. CCA auf 20:30 Uhr, nicht ideal, aber ok. Fertige Vorbereitung, fast am Ziel.\n24. Februar, OpenTelemetry-Themen durchgegangen. Vier Prüfungen im Kopf, psychologischer Druck. Meine Frau liest Nachrichten, vierter Jahrestag des russischen Angriffs auf die Ukraine. Damals standen wir vor der Tür, beobachteten Raketen, versuchten zu realisieren, was passiert. Ich, sonst Nachrichtenleser, blieb draußen. Heute: keine schlechte Energie, nur das Nötige erledigt. Um 16:36 Uhr Ergebnisse: noch eine Prüfung. Kurze Pause, Status gecheckt. Um 21:35 Uhr offiziell: letzte von 10 Prüfungen bestanden.\nMit einem Durchschnitt von 92 Punkten, 13 Tage nach der ersten Prüfung fertig. 15 Tage insgesamt. Feierlaune im Kopf, Schlafmodus im Körper. Kopf gewann, dann Körper – ab ins Bett.\nBesonders spannend: Man lernt viele Technologien und deren mögliche Umsetzung. Noch nie in einem Projekt gearbeitet, das GitOps bis in Produktion durchzieht. Der Weg zum Golden Kubestronaut vertieft Wissen und zeigt, wie IT 2026 aussehen könnte. Herausfordernd, aber jederzeit wieder und ich freue mich schon auf die CNPE-Prüfung!\nMit 43 Jahren kann ich sagen: Man ist nie zu alt für eine Herausforderung. Vielleicht hilft das Alter sogar manchmal. Alles, was man braucht, ist starker Wille, Ausdauer und Neugier… und ein bisschen Köpfchen. ;)\n","link":"https://www.findichgut.net/de/posts/lets_make_it_golden/","section":"posts","tags":null,"title":"Vergolden wir es – Meine Golden Kubestronaut Challenge"},{"body":"Ende Oktober habe ich beschlossen, die CKA‑Prüfung zu machen, um mein Kubernetes‑Wissen zu unterstreichen. Kaum hatte ich angefangen, mich vorzubereiten, kam ein Anruf: Ein potenzieller Kunde könnte Azure‑Skills brauchen. Also habe ich meine CKA‑Pläne erstmal verschoben und mich auf die Azure‑Prüfungen konzentriert. Das war eine gute Gelegenheit, mein Wissen aufzufrischen und gleichzeitig meine Expertise zu dokumentieren. Nachdem ich meine Azure Zertifizierungen durchgezogen hatte, gönnte ich mir eine kurze Pause – und dann ging es mit den CKA‑Vorbereitungen weiter. Schon nach kurzer Zeit war mir klar: Ich will Kubestronaut werden.\nDer Titel „Kubestronaut“ besteht aus fünf Zertifizierungen:\nCode Name CKA Certified Kubernetes Administrator CKAD Certified Kubernetes Application Developer CKS Certified Kubernetes Security Specialist KCNA Kubernetes and Cloud Native Associate KCSA Kubernetes and Cloud Security Associate Die ersten drei sind praktische Prüfungen, bei denen du echte Aufgaben auf Kubernetes‑Clustern lösen musst. KCNA und KCSA sind klassische Multiple‑Choice‑Tests.\nDie CNCF stellt das Curriculum für alle Prüfungen auf GitHub bereit.\nBei den praktischen Prüfungen gibt es eine Liste mit Dokumentationen, die du verwenden darfst – darunter alle Manpages, die Distro‑Doku (du darfst sogar Software installieren) und natürlich die Kubernetes‑Dokumentation. Die komplette Übersicht findest du hier.\nManche Aufgaben verlinken direkt auf bestimmte Doku‑Seiten, was enorm hilft, schneller voranzukommen. Außerdem gibt es immer einen Link zur Seite mit den erlaubten Ressourcen.\nWährend der Prüfung Wenn du die Online‑Prüfung startest, meldet sich ein Proctor. Er sagt Hallo, erinnert dich daran, dass es deine letzte Chance für einen Toilettengang ist, fragt, ob du bereit bist, prüft eventuell noch einmal deinen Ausweis und führt dann den Environment‑Check durch. Auch wenn es schon deine fünfte Prüfung ist: versuche nicht, alle Antworten vorwegzunehmen – sie arbeiten streng nach Skript und verwenden jedes Mal denselben Text.\ndu kannst eventuell zur Toilette gehen; die Entscheidung trifft der Proctor, also frag freundlich und bitte um eine Pause du darfst NICHT andere Personen oder Tiere im Raum haben Bitte sei dir bewusst, dass die Regeln streng sind, um den Ruf der Zertifizierung zu wahren und eine Prüfung ohne Unterbrechungen sicherzustellen. Genau das sollte auch im Interesse aller Teilnehmenden liegen.\nDie vollständigen Regeln findest du hier.\nDie Prüfungen Die CKA‑Prüfung deckt fast alle Bereiche von Kubernetes ab – für mich war sie die härteste. Als Nicht‑Muttersprachler mit ordentlichem Englisch war es trotzdem schwierig, alle Fragen im Detail zu verstehen. Und es war meine erste echte Hands‑on‑Prüfung. Zum Glück bin ich über diesen Udemy‑Kurs gestolpert. Der Kurs hat viele Labs, also Aufgaben, die du direkt in einer Testumgebung löst. Den Zugang zu den Labs gibt’s kostenlos dazu. Darüber bin ich dann auch bei KodeKloud gelandet – eine Plattform, die in vielen meiner Zertifizierungs‑Posts auftaucht. Die Kurse dort sind richtig gut, mit vielen Quizzen und Labs. Selbst bei Multiple‑Choice‑Prüfungen gibt es Labs, damit man die Themen besser versteht. Ich höre die Kurse wie immer in 2x‑Speed – die Trainer wirken dabei super motiviert (funktioniert für mich nur so).\nMeiner Meinung nach ist die CKA die beste Prüfung, um Kubernetes‑Wissen nachzuweisen. Auch wenn viele sagen, dass die CKS schwieriger ist, gibt die CKA einen richtig guten Überblick über alle Bereiche und ist für jeden nützlich, der mit Clustern arbeitet. Ich bin fast mit der Zeit nicht ausgekommen. Mein Tipp: Nutzt unbedingt die „Quick Reference“‑Box in der Aufgabenbeschreibung für den schnellsten Zugriff auf die Doku und Befehle wie:\n1 kubectl create --dry-run=client -o yaml sowie:\n1 kubectl edit ... 2 kubectl replace --force -f /tmp/....yaml Selbst wenn du die Ressource nicht wie gefordert bearbeiten kannst, bekommst du so eine Datei im /tmp/‑Verzeichnis, die du nutzen kannst, um die Ressource zu ersetzen.\nFür die CKAD‑Prüfung hatte ich schon ein KodeKloud‑Abo. Dort gibt’s einen kompletten Kubestronaut‑Lernpfad mit allen Kursen. Nach der intensiven Vorbereitung für die CKA war die CKAD echt entspannt. Ich habe weniger als eine Stunde gebraucht, alle Aufgaben zu lösen, und dann nochmal 30 Minuten zum Kontrollieren.\nVor der CKS‑Prüfung hieß es, sie sei die schwerste. Ich fand das ehrlich gesagt nicht so. Die Kurse passten perfekt, und die Prüfung war gut machbar. Klar, manchmal war ich unsicher, ob meine Lösung genau dem erwarteten Ergebnis entsprach, aber am Ende habe ich alle Aufgaben in etwa einer Stunde plus 30 Minuten Kontrolle geschafft.\nDie vorherigen Prüfungen bereiten dich super auf KCNA und KCSA vor. Es fehlt nur noch ein bisschen mehr Theorie zu Themen wie Service Mesh, CNCF, Observability und GitOps. Ich habe zusätzlich mit Copilot und ChatGPT gespielt, um ein paar Probeprüfungen zu basteln – wie schon in meinem Azure‑Post beschrieben.\nPrüfungstipps Ganz wichtig: Wenn du bei einer Aufgabe nicht weiterkommst, markiere sie und mach erstmal weiter! Alle markierten Aufgaben findest du im Drop‑down‑Menü und kannst später zurückkehren. Spätere Aufgaben können zeitaufwendiger oder komplexer sein. Wenn du merkst, dass du dich verrannt hast und nicht sicher bist, wie du das Problem lösen sollst, geh einfach zur nächsten Aufgabe und prüfe es später nochmal. Sonst läufst du Gefahr, dass dir die Zeit ausgeht – und dann wird es schwer oder unmöglich, die restlichen Aufgaben zu schaffen.\nUnd: Achte bei jeder Aufgabe darauf, dass du im richtigen Cluster arbeitest. In der echten Prüfung gibt es für jede Aufgabe ein eigenes Cluster. Ich habe in meiner CKA‑Prüfung versehentlich eine Aufgabe im falschen Cluster gelöst, das nicht für die große Aufgabe ausgelegt war – und dadurch Punkte verloren, weil das System nicht mehr reagierte.\nRabatte Viele Kursanbieter haben Rabattcodes für die Prüfungen. Außerdem gibt’s große Rabatte am Cyber Monday und zu anderen Gelegenheiten. Wenn du schon die CKA (oder CKAD) gemacht hast, gibt es Upgrade‑Bundles, die günstiger sind als einzelne Prüfungen. Rund um den Cyber Monday (Ende November, Anfang Dezember) gibt’s die besten Deals.\nKiller.sh Für jede Prüfung gibt es einen killer.sh‑Simulator. Mit jeder Prüfung bekommst du zwei kostenlose Sessions. Der CKAD hat nur eine Version, während die CKS‑ und CKA‑Simulatoren zwei verschiedene Varianten bieten. Du hast einen Timer für 120 Minuten, exklusiv für dich, um deine Leistung zu messen. Der Zugang zur Testumgebung gilt 36 Stunden, sobald du eine Session startest. Nach den zwei Stunden – oder wenn du die Prüfung beendest – bekommst du eine ausführliche Lösung und Erklärung zu jeder Aufgabe und kannst deine Ergebnisse vergleichen. Während der 36 Stunden kannst du die Umgebung auch zurücksetzen und neu starten. Lies die Lösungen genau – sie enthalten viele Tipps, wie du Aufgaben schnell und zuverlässig löst.\nVorbereitungszeit Ich habe etwas mehr als zwei Wochen gebraucht, um alle Prüfungen vorzubereiten. KodeKloud sagt, es dauert 4–5 Monate, wenn man täglich 6 Stunden investiert. Andere meinen, 40 Tage reichen. Ich glaube, es hängt vor allem davon ab, wie sehr du es willst und welche anderen Verpflichtungen du im Alltag hast.\nFalls du beim selben Trainingsanbieter mehrere Kurse belegst: Viele Anbieter verwenden die gleichen Videos in unterschiedlichen Schulungen. Ich persönlich habe es meistens vermieden, die Videos zu überspringen – einfach, um mir das Wissen nochmal ins Gedächtnis zu rufen. Wer allerdings schnell vorankommen will, kann sie natürlich überspringen.\nUnd was passiert danach? Sobald du die letzte Prüfung geschafft hast, flattert innerhalb einer Woche eine E‑Mail mit den nächsten Schritten ins Postfach. Darin wirst du gebeten, ein Formular mit deinen Daten auszufüllen. Meistens dauert es dann noch einmal ungefähr eine Woche, bis dein Name offiziell auf der Kubestronaut‑Seite auftaucht.\nAb diesem Moment bist du offiziell Kubestronaut und bekommst ein paar Extras:\neine Kubestronaut‑Jacke (Lieferzeit erfahrungsgemäß bis zu 4 Monate) Zugang zu einem exklusiven Slack‑Channel und einer Mailingliste nur für Kubestronauten fünf Gutscheine pro Jahr für 50 % Rabatt auf Zertifizierungen 20 % Rabatt auf drei CNCF‑Events pro Jahr Und natürlich gibt’s auch das digitale Abzeichen:\n","link":"https://www.findichgut.net/de/posts/kubestronaut/","section":"posts","tags":null,"title":"Kubestronaut"},{"body":"Um ehrlich zu sein, hatte ich im November 2025 noch keine Website. Da ich jedoch hauptsächlich über meine Erfahrungen im November spreche, habe ich das Datum angepasst.\nDas gibt mir auch die Möglichkeit, ein paar zusätzliche Details über Dinge zu liefern, die ich später gelernt habe.\nAnfang November entschied ich mich, einige Zertifizierungen auf Azure zu machen. Ursprünglich wollte ich die AZ‑104 (Administrator) ablegen. Dann merkte ich, dass ich neugieriger war als gedacht.\nDer nächste Plan war, auch AZ‑305 (Solutions Architect) und AZ‑400 (DevOps) zu machen. Schon bald stellte ich fest, dass ich Azure DevOps mit einer allgemeinen DevOps‑Zertifizierung verwechselte, statt mit dem Produkt Azure DevOps. Später lernte ich außerdem, dass ich kein großer Fan von Azure DevOps bin. Obwohl es einige Vorteile hat, fühlte es sich für mich wie eine weitere Toolchain ohne besonderen „Wow‑Effekt“ an. Zudem ist es stark auf Azure zugeschnitten, was den Vendor Lock‑in verstärkt. Und schließlich stellte ich sehr schnell fest, dass der Kurs, den ich dazu belegte, überhaupt nicht gut war. Ich habe daher für mich entschieden, auf die AZ‑400 Zertifizierung zu verzichten.\nMicrosoft hat unterschiedliche Preise für verschiedene Länder. Während die Prüfungen in den USA z. B. 165 $ kosten, in Deutschland 126 € (etwa 150 $), sind es in der Ukraine nur 58 $. Das macht sie dort sehr attraktiv, um Wissen zu dokumentieren und zu erweitern – zumindest, wenn man nicht in den USA oder Westeuropa lebt ;)\nJedenfalls hatte ich mein Udemy‑Abo und war hoch motiviert, also begann ich mit dem ersten Kurs.\nAZ‑104 Ich bereitete mich mit Udemy vor und folgte dem gesamten Kurs wie üblich in 2x‑Geschwindigkeit.\nIm Allgemeinen scheint John Christopher auf Udemy das Nonplusultra für Azure‑Kurse zu sein. Ich schaute mir auch weitere Übungsprüfungen auf Udemy an und absolvierte die offiziellen Practice Assessments, die auf der Exam Overview Seite von Microsoft verlinkt sind.\nDa ich bereits viel Erfahrung mit Azure hatte, reichte dies für die AZ‑104 aus, um die Prüfung zu bestehen.\nAZ‑305 Auch hier wählte ich einen Kurs von John Christopher auf Udemy. Leider hatte ich wirklich nicht das Gefühl, dass dies ausreichte.\nWann nutzt man Azure SQL, wann eine Managed Instance oder sollte man eine selbstverwaltete VM einsetzen? Und welches Produkt benötigt man für welche Datenmenge, Ausfallzeit usw.? Ich hatte den starken Eindruck, dass es hier viele kleine Details zu wissen gibt, statt nur das große Bild zu zeichnen.\nIch schaute mir weitere Übungsprüfungen auf Udemy an, war mir aber nicht sicher, ob alle Antworten korrekt waren. Natürlich absolvierte ich auch das offizielle Practice Assessment Exam Overview.\nMit all diesen Details begann ich einen anderen Ansatz: Was wäre, wenn man eine KI bittet, Übungsprüfungen zu erstellen? Man kann sogar nach spezifischen Themen fragen, z. B. Unterschiede zwischen Datenbanktypen. Und es funktionierte!\nIm Detail bat ich Copilot, Testprüfungen vorzubereiten. Nachdem ich merkte, dass manche Fragen nicht so gut waren, wie ich es mir wünschte, bat ich um weitere Fragen zu bestimmten Themen. Außerdem diskutierte ich mit Copilot über Inhalte und las zusätzliche Erklärungen. In einigen Fällen war ich sicher, dass Copilot falsch lag, also fragte ich zusätzlich ChatGPT. Manchmal stellte sich heraus, dass zwei KIs drei verschiedene Meinungen haben können – z. B. darüber, wie man Secrets von einem Key Vault in einen anderen migriert.\nIn jedem Fall hilft es auch, nach Links zur Dokumentation und Referenzen zu fragen, um detaillierte Antworten zu bekommen. Ein Problem bleibt: KIs sind darauf trainiert, dich zu unterhalten und zufrieden zu stellen! Man muss ihnen häufig sagen, dass man Fragen auf Prüfungsniveau braucht, dass sie keine einfachen Fragen stellen sollen. Wenn man merkt, dass die Fragen wieder leichter werden, muss man es erneut betonen.\nWenn man Statistiken möchte, sollte man sie regelmäßig einfordern und eigene Notizen machen. Irgendwann merkt man, dass Diskussionen mit der KI nicht mehr weiterhelfen – entweder man stimmt zu oder die KI liegt falsch, oder es ist zumindest schwer festzustellen, ob sie recht hat. Das ist der Moment, in dem man bereit ist, die Prüfung abzulegen.\nAZ‑500 Während meiner Vorbereitung auf AZ‑400 (eigentlich die Prüfung, die ich nach AZ‑104 machen wollte) entschied ich, dass es sinnvoll wäre, mehr über Sicherheit in Azure zu lernen. Ich verfolgte im Wesentlichen denselben Ansatz wie bei AZ‑305.\nFür mich war diese Prüfung einfacher als AZ‑305, da sie weniger ins Detail über bestimmte Produkte ging. Also wieder Udemy – glücklicherweise mit einem Kurs von John Christopher – dazu der Assessment‑Test auf Microsoft Learn und ein paar Gespräche mit meinen KI‑Begleitern.\nWeiter Empfehlungen Inzwischen weiß ich, dass KodeKloud ebenfalls Kurse für alle drei (und mehr) der genannten Microsoft‑Zertifizierungen anbietet. Ich habe sie bisher nicht gesehen, aber falls ich eine Rezertifizierung mache, würde ich sie definitiv ausprobieren, da sie üblicherweise sehr gute Kurse anbieten.\nFür alle, die kein KodeKloud‑Abo haben und auch AWS‑Zertifizierungen suchen, kann ich Stephane Maarek sehr empfehlen. Für mich persönlich ist Udemy weniger interessant geworden, da die Qualität der Kurse stark variiert und höherwertige Kursinhalte nicht im Abo enthalten sind.\n","link":"https://www.findichgut.net/de/posts/azure-certs/","section":"posts","tags":null,"title":"Azure Zertifizierungen"},{"body":"","link":"https://www.findichgut.net/de/categories/","section":"categories","tags":null,"title":"Categories"},{"body":"","link":"https://www.findichgut.net/de/series/","section":"series","tags":null,"title":"Series"},{"body":"","link":"https://www.findichgut.net/de/skills/","section":"","tags":null,"title":"Skills"},{"body":"","link":"https://www.findichgut.net/de/tags/","section":"tags","tags":null,"title":"Tags"}]