@schenklklopfer ich kenne es aber aus meiner Vergangenheit. Man sollte Downtimes planen. Diese wurden dann von der Leitung und den Fachbereichen abgenickt und meistens dann ein paar Stunden vor dem Patchen fiel dann irgendjemanden ein, dass das an dem Tag auf gar keinen Fall gehen würde.
Den absoluten Hammer hatte ich dann bei einem Kunden, der über vier Monate ständig eskalierte, dass ein Dienst nicht ordnungsgemäß lief. Ich hatte dem Kunden klipp und klar gesagt, der Dienst sei bereits gepatscht, aber der Dienst muss neu starten, damit die neuen Dateien gezogen werden.
Wie gesagt, nach vier Monaten das erklären der Eskalation und der schieren Dummheit hab ich dann stumpf an irgendeinem Nachmittag den Server neu gestartet der Dienst wurde migriert und siehe da, das Problem war behoben.
Als ich gefragt wurde, warum der Server rebootet hat, hab ich einfach gesagt, es lag wohl ein Speicherfehler vor und damit war das Thema erledigt.
Das allerbeste da dran. Niemand hat den Ausfall des Dienstes bemerkt, weil das Cluster so schnell war, dass der Dienst für sage und schreibe 20 ms nicht erreichbar war.
Und für diesen Blödsinn gab es dann vier Monate regelmäßige Calls und Meetings mit teuer bezahlten Menschen.#makeitmakesense