Prozesse: Komplett-Guide 2026
Autor: Provimedia GmbH
Veröffentlicht:
Kategorie: Prozesse
Zusammenfassung: Prozesse verstehen und nutzen. Umfassender Guide mit Experten-Tipps und Praxis-Wissen.
Prozessoptimierung als Wettbewerbsstrategie: Methoden, Metriken und Hebel
Unternehmen, die Prozessoptimierung als reine Kostensenkungsmaßnahme verstehen, verschenken ihr größtes Potenzial. Die entscheidende Erkenntnis aus der Praxis: Wer Durchlaufzeiten um 30–40 % verkürzt, gewinnt nicht nur Marge, sondern Marktanteile. Toyota hat mit dem Toyota Production System bewiesen, dass operative Exzellenz zur stärksten Markteintrittsbarriere überhaupt werden kann – eine Lektion, die längst über die Fertigungsindustrie hinaus gilt.
Der strategische Rahmen beginnt mit einer ehrlichen Bestandsaufnahme: Welche Prozesse differenzieren uns wirklich vom Wettbewerb, und welche sind reine Hygienefaktoren? Diese Unterscheidung bestimmt, wo Investitionen in Optimierung den höchsten Return liefern. Kernprozesse – also jene, die direkt zur Wertschöpfung beitragen – verdienen tiefe Analyse und kontinuierliche Verbesserung. Supportprozesse hingegen eignen sich eher für Standardisierung und Automatisierung.
Die richtigen Methoden für den richtigen Kontext
Lean, Six Sigma und Agile sind keine konkurrierenden Ansätze, sondern komplementäre Werkzeuge. Lean eliminiert Verschwendung durch Wertstromanalyse und Kaizen-Events – ideal für stabile, repetitive Abläufe. Six Sigma reduziert Prozessvarianz statistisch und liefert belastbare Ergebnisse bei Fehlerquoten über 3,4 DPMO (Defects per Million Opportunities). Wer hingegen seine digitalen Abläufe systematisch verbessern will, kommt um agile Methoden wie Kanban oder iterative Sprints nicht herum – weil sich Anforderungen hier zu schnell ändern, als dass klassische Projektpläne Schritt halten könnten.
Entscheidend ist die Methodenwahl nach Prozesscharakteristik: Hohe Wiederholungsrate und geringe Variabilität begünstigen Lean. Komplexe Wechselwirkungen mit messbaren Qualitätsdefiziten rufen nach Six Sigma. Schnell wandelnde Umgebungen mit hoher Anforderungsdynamik brauchen agile Rahmenwerke. Wer alle drei kombiniert – unter dem Begriff Lean Six Sigma Agile – erzielt in der Praxis regelmäßig 20–35 % höhere Einsparungen als mit Einzelmethoden.
Metriken, die tatsächlich steuern
Die Auswahl von KPIs entscheidet darüber, ob Prozessoptimierung strategisch wirkt oder im Tagesgeschäft versandet. Drei Metriken haben sich als besonders steuerungsrelevant erwiesen: Cycle Time (Zeit von Auftragseingang bis Lieferung), First Pass Yield (Anteil fehlerfreier Ergebnisse im ersten Durchlauf) und Cost of Poor Quality – letztere liegt in deutschen Industrieunternehmen im Schnitt bei 5–8 % des Umsatzes, ein massiver versteckter Hebel.
- Cycle Time Reduction: Bereits 20 % kürzere Durchlaufzeiten erhöhen die Kapazitätsauslastung ohne Investitionen in neue Ressourcen.
- Automatisierungsgrad: Prozesse mit über 70 % manuellem Anteil sind prioritäre Kandidaten für RPA oder workflow-basierte Software.
- Eskalationsrate: Jede Ausnahmebehandlung kostet durchschnittlich 8–12× mehr als ein standardisierter Durchlauf.
Wer mit software-gestützten Abläufen sein Unternehmen neu aufstellt, sollte von Beginn an Metriken in die Prozessarchitektur einbauen – nicht nachträglich aufpfropfen. Dashboards, die Echtzeit-Daten aus ERP, CRM und Produktionssystemen zusammenführen, machen Engpässe sichtbar, bevor sie zu Ausfällen werden. Das ist der Unterschied zwischen reaktiver Problemlösung und echter strategischer Steuerungsfähigkeit.
Softwaregestützte Prozessvisualisierung: Werkzeuge, Notation und Praxiseinsatz
Wer Prozesse dokumentieren will, kommt an spezialisierter Software kaum vorbei. Handgezeichnete Flussdiagramme auf Whiteboards erfüllen ihren Zweck im Workshop, scheitern aber spätestens bei der Versionierung, der teamübergreifenden Kollaboration und der Integration in bestehende Dokumentationslandschaften. Die Werkzeugauswahl entscheidet dabei nicht nur über Komfort, sondern über die Qualität der modellierten Prozesse selbst – denn schlechte Tools verleiten zu schlechter Notation.
Notationsstandards: BPMN, UML und EPK im Vergleich
BPMN 2.0 (Business Process Model and Notation) hat sich als De-facto-Standard für Geschäftsprozesse etabliert – und das aus gutem Grund. Die Notation unterscheidet klar zwischen Ereignissen, Aufgaben, Gateways und Pools, was Mehrdeutigkeiten strukturell ausschließt. In der Praxis reichen für 80 % der Prozessdokumentationen etwa 20 der insgesamt über 100 BPMN-Elemente aus. UML-Aktivitätsdiagramme bieten sich an, wenn Prozesse eng mit Softwaresystemen verzahnt sind – etwa bei der Modellierung von Systeminteraktionen, wie sie in der Spezifikation technischer Abläufe während des Software-Designs auftreten. EPK (Ereignisgesteuerte Prozessketten) werden vor allem in SAP-nahen Umgebungen eingesetzt, verlieren aber gegenüber BPMN kontinuierlich an Relevanz.
Ein häufiger Fehler in der Praxis: Teams mischen Notationen innerhalb eines Dokuments, weil das Werkzeug es zulässt. Das Ergebnis ist ein Diagramm, das zwar optisch stimmig wirkt, aber semantisch inkonsistent ist. Klare Konventionen – welche Notation für welchen Anwendungsfall – sollten daher im Prozessmodellierungshandbuch des Unternehmens verankert sein.
Werkzeuge für unterschiedliche Reifegrade
Die Werkzeuglandschaft lässt sich grob in drei Kategorien einteilen:
- Einstiegswerkzeuge wie Lucidchart, draw.io oder Miro eignen sich für schnelle Visualisierungen im Team, bieten aber kaum Prozessvalidierung oder Exportformate für BPM-Engines.
- Professionelle Modellierungssoftware wie Signavio, ARIS oder Camunda Modeler unterstützt BPMN 2.0 vollständig, bietet Simulationsfunktionen und lässt sich in Prozess-Repositories integrieren. Signavio etwa erlaubt die direkte Verknüpfung von Prozessmodellen mit KPI-Definitionen.
- Enterprise-BPM-Suiten wie IBM Business Automation Workflow oder SAP Process Manager verbinden Modellierung, Ausführung und Monitoring in einer Plattform – relevant, sobald Prozesse automatisiert werden sollen.
Für mittelständische Unternehmen mit 50–500 modellierten Prozessen ist Signavio oder ein vergleichbares Repository-Tool der Sweet Spot: ausreichend mächtig für professionelle Modellierung, ohne die Komplexität einer vollständigen BPM-Suite. Wer hingegen nur gelegentlich Prozesse visuell aufbereiten und für verschiedene Zielgruppen verständlich darstellen möchte, fährt mit draw.io oder Lucidchart kosteneffizienter.
Ein unterschätzter Aspekt ist die Versionskontrolle. Prozessmodelle ändern sich – durch regulatorische Anforderungen, Systemwechsel oder Reorganisationen. Tools ohne integrierte Versionierung zwingen Teams zu manuellen Namenskonventionen wie „Prozess_v3_final_FINAL2.bpmn", was in der Praxis regelmäßig zu Konfusionen führt. Repository-basierte Werkzeuge lösen dieses Problem durch strukturierte Versionierung und Änderungshistorie, die auch für Audits verwertbar ist.
Die Wahl des Werkzeugs sollte nie losgelöst vom Zielsystem betrachtet werden. Wer Prozesse später in eine Workflow-Engine überführen will, muss bereits bei der Modellierung auf ausführbare BPMN-Konformität achten – ein Diagramm, das nur zur Dokumentation erstellt wurde, enthält typischerweise fehlende Zuordnungen von Lanes zu Systemen oder unspezifizierte Service-Tasks, die eine technische Implementierung blockieren.
Anforderungsmanagement als Prozessfundament: Lastenheft, Stakeholder und Qualitätssicherung
Projekte scheitern selten an mangelnder technischer Kompetenz – sie scheitern an unklaren Anforderungen. Studien des Standish Group CHAOS Report zeigen konsistent, dass über 40% aller gescheiterten IT-Projekte auf unvollständige oder fehlerhafte Anforderungsdefinitionen zurückzuführen sind. Wer Prozesse professionell gestalten will, muss verstehen: Anforderungsmanagement ist kein administrativer Overhead, sondern das Fundament, auf dem jede spätere Entscheidung aufbaut.
Das Lastenheft als verbindliche Prozessbasis
Das Lastenheft ist das zentrale Instrument, um Anforderungen aus Auftraggeberperspektive strukturiert zu erfassen. Es beschreibt das „Was" und „Warum" – nicht das „Wie". Ein gut strukturiertes Lastenheft unterscheidet zwischen funktionalen Anforderungen (z.B. „Das System muss 500 gleichzeitige Nutzer unterstützen") und nicht-funktionalen Anforderungen wie Performance, Sicherheit oder Wartbarkeit. Wer Anforderungen systematisch dokumentiert und priorisiert, schafft eine Vertragsgrundlage, die spätere Scope-Creep-Diskussionen erheblich reduziert. In der Praxis empfiehlt sich eine Versionierung des Lastenhefts ab dem ersten Tag – jede Änderung muss nachvollziehbar mit Datum, Autor und Begründung erfasst werden.
Ein häufiger Fehler: Das Lastenheft wird einmalig erstellt und danach nicht mehr angefasst. In agilen oder hybriden Projekten muss es als lebendes Dokument behandelt werden, das mit jeder Sprint-Iteration oder Projektphase abgeglichen wird. Der konkrete Nutzen zeigt sich spätestens dann, wenn ein Stakeholder in Woche 14 behauptet, eine Funktion sei „von Anfang an" gefordert worden.
Stakeholder-Management: Wer spricht, wer entscheidet, wer blockiert
Professionelles Anforderungsmanagement beginnt mit einer vollständigen Stakeholder-Analyse. Dabei geht es nicht nur darum, wer das Projekt finanziert, sondern wer es nutzt, wer davon betroffen ist und wer es politisch blockieren könnte. Eine bewährte Methode ist die Einteilung in eine 2x2-Matrix nach Einfluss und Interesse – daraus entstehen konkrete Kommunikationspläne: hoher Einfluss, hohes Interesse bedeutet enge Einbindung; hoher Einfluss, geringes Interesse bedeutet regelmäßige, kompakte Updates ohne unnötige Detailtiefe.
Workshops zur Anforderungserhebung sollten nie länger als 90 Minuten dauern und immer mit einem konkreten Ergebnis enden – sei es eine priorisierte Anforderungsliste, ein validiertes User-Story-Set oder ein genehmigtes Lastenheft-Kapitel. Erfahrungsgemäß liefern strukturierte Interviews mit End-Usern deutlich präzisere Anforderungen als abstrakte Managementgespräche, weil sie operative Realitäten abbilden statt Wunschbilder.
Die Verbindung zwischen Anforderungsmanagement und Architekturentscheidungen wird häufig unterschätzt. Bereits in der Anforderungsphase lassen sich Weichen stellen, die später teuer werden – etwa wenn Performance-Anforderungen erst in der Entwurfsphase als architektonische Randbedingungen berücksichtigt werden müssen, obwohl sie eigentlich schon im Lastenheft hätten festgesteckt sein sollen.
- Anforderungen SMART formulieren: Spezifisch, messbar, erreichbar, relevant, terminiert
- Priorisierung nach MoSCoW: Must-have, Should-have, Could-have, Won't-have
- Abnahmekriterien direkt bei der Anforderung definieren, nicht nachträglich
- Traceability sicherstellen: Jede Anforderung muss zu einem Testfall und einem Lieferobjekt zurückverfolgbar sein
Qualitätssicherung im Anforderungsmanagement bedeutet konkret: Reviews durch fachfremde Personen, die blinde Flecken aufdecken, sowie regelmäßige Anforderungsaudits nach definierten Meilensteinen. Wer diesen Prozessschritt systematisch etabliert, reduziert Nachbesserungskosten – die nach Boehm'scher Regel in späteren Phasen um den Faktor 10 bis 100 steigen.
Entwurfsphase und Prozessarchitektur: Von der Anforderung zum tragfähigen Design
Wer Prozesse nachhaltig gestalten will, muss verstehen, dass das eigentliche Fundament lange vor der ersten Implementierung gelegt wird. Die Entwurfsphase entscheidet darüber, ob ein Prozess unter Realbedingungen trägt oder nach wenigen Wochen als Flickwerk endet. Praxisdaten aus Prozessoptimierungsprojekten zeigen konsistent: Rund 60 bis 70 Prozent aller Prozessfehler lassen sich auf unklare Anforderungen oder übersprungene Entwurfsschritte zurückführen – nicht auf fehlerhafte Ausführung.
Der Übergang von der Anforderungsaufnahme zum konkreten Prozessdesign ist dabei die kritischste Schnittstelle. Anforderungen existieren häufig in mehreren Aggregatzuständen gleichzeitig: als diffuse Erwartung bei Fachabteilungen, als technische Spezifikation bei der IT und als strategische Zielvorgabe beim Management. Diese drei Ebenen müssen synchronisiert werden, bevor ein einziger Prozessschritt skizziert wird. Wer diesen Abgleich überspringt, baut auf wackeligem Grund.
Anforderungen operationalisieren: Von der Wunschliste zur Designgrundlage
Eine strukturierte Anforderungsaufnahme beginnt mit der Unterscheidung zwischen funktionalen und nicht-funktionalen Anforderungen. Funktionale Anforderungen beschreiben, was ein Prozess leisten soll – etwa "Rechnungen innerhalb von 48 Stunden genehmigen". Nicht-funktionale Anforderungen definieren, unter welchen Bedingungen er das leisten muss: Systemverfügbarkeit, Skalierbarkeit bei 300 parallelen Vorgängen, Audit-Konformität nach ISO 9001. Viele Entwurfsteams konzentrieren sich ausschließlich auf die erste Kategorie und wundern sich später über Systemausfälle oder Compliance-Lücken. Eine bewährte Methode zur vollständigen Anforderungsdokumentation ist das strukturierte Erfassen aller Stakeholder-Erwartungen in einem Lastenheft, das als verbindliche Referenz durch den gesamten Entwurfsprozess trägt.
Konkret empfiehlt sich ein dreistufiger Operationalisierungsrahmen: Erstens Anforderungen priorisieren nach dem MoSCoW-Prinzip (Must/Should/Could/Won't). Zweitens Abhängigkeiten zwischen Anforderungen explizit kartieren – welche Prozessschritte bedingen einander, welche können parallel laufen? Drittens messbare Akzeptanzkriterien definieren, bevor der erste Entwurf beginnt. Ein Prozess ist erst dann anforderungsgerecht, wenn sich sein Erfolg auch tatsächlich messen lässt.
Prozessarchitektur: Struktur vor Detailverliebtheit
Der eigentliche Designentwurf folgt dem Prinzip "Struktur vor Detail". In der Entwurfsphase geht es zunächst darum, Grobarchitektur und Verantwortlichkeiten zu klären, bevor einzelne Prozessschritte ausgearbeitet werden. Bewährt hat sich hierbei die Arbeit auf drei Abstraktionsebenen: der Kontextebene (Prozess im Systemverbund), der Ablaufebene (Sequenz der Hauptaktivitäten) und der Aufgabenebene (konkrete Einzelschritte mit Ein- und Ausgaben).
Besonders kritisch: der Umgang mit Ausnahmen und Fehlerpfaden. Erfahrene Prozessdesigner planen Ausnahmepfade bereits im Entwurf mit – nicht als Nachgedanke. Faustformel aus der Praxis: Für jeden Hauptpfad sollten mindestens zwei bis drei Fehlerpfade explizit modelliert werden. Prozesse, die nur für den Erfolgsfall entworfen werden, kollabieren unter Realbedingungen zuverlässig.
Ein häufig unterschätztes Risiko ist die Requirement-Design-Gap: Was als Anforderung formuliert wurde, wird im Entwurf subtil uminterpretiert – oft unbewusst, weil Designerinnen und Designer eigene mentale Modelle mitbringen. Das klassische Bild der Schaukel, die jeder Stakeholder anders versteht, verdeutlicht dieses Phänomen präziser als jede abstrakte Beschreibung. Regelmäßige Entwurfs-Reviews mit den ursprünglichen Anforderungsgebern – idealerweise alle drei bis fünf Arbeitstage in der aktiven Designphase – schließen diese Lücke systematisch.
- Modellierungsstandard festlegen: BPMN 2.0 für ausführbare Prozesse, UML-Aktivitätsdiagramme für konzeptionelle Entwürfe
- Versionierung von Entwurfsartefakten von Beginn an einplanen – nicht erst ab dem zweiten Entwurfsstand
- Traceability sicherstellen: Jeder Prozessschritt sollte auf mindestens eine dokumentierte Anforderung rückführbar sein
- Prototyping nutzen: Papierprototypen oder einfache Mockups reduzieren Missverständnisse schneller als schriftliche Spezifikationen
Vertragsmodelle in Entwicklungsprozessen: Werk- vs. Dienstvertrag im direkten Vergleich
Die Wahl des Vertragsmodells entscheidet darüber, wer das Projektrisiko trägt – und das hat unmittelbare Auswirkungen auf Budget, Zeitplanung und die Qualität des Endergebnisses. In der Praxis sehen viele Auftraggeber den Werkvertrag als die sichere Wahl: Der Auftragnehmer schuldet ein abnahmefähiges Ergebnis, nicht nur seine Arbeitszeit. Doch diese scheinbare Sicherheit kommt mit einem hohen Preis: starren Anforderungen, teuren Änderungsverfahren und häufig eskalierenden Vertragsstreitigkeiten. Wer die rechtlichen und praktischen Unterschiede zwischen beiden Vertragstypen in der Softwareentwicklung kennt, trifft die bessere Entscheidung – nicht nur juristisch, sondern auch prozessual.
Werkvertrag: Wenn Planbarkeit zur Illusion wird
Der Werkvertrag eignet sich für klar abgrenzbare Leistungen mit stabilen Anforderungen – etwa die Migration einer Datenbank auf ein neues System oder die Entwicklung eines definierten Plugins. Sobald jedoch Komplexität ins Spiel kommt, entstehen Probleme: Anforderungsänderungen führen zu formalen Change Requests, jede Anpassung kostet extra, und das Abnahmerisiko liegt beim Auftraggeber. In Projekten mit mehr als 500 Story Points oder einer Laufzeit über sechs Monate führt der Werkvertrag statistisch deutlich häufiger zu Nachverhandlungen als der Dienstvertrag. Entscheidend ist dabei: Ein Werkvertrag ist nur so gut wie die Spezifikation, auf die er sich bezieht. Wer ein präzises Lastenheft als Grundlage für die Softwareentwicklung nutzt, reduziert dieses Risiko erheblich – eliminiert es aber nicht vollständig.
Typische Fallstricke beim Werkvertrag in Entwicklungsprojekten:
- Abnahmeverweigerung bei unvollständigen oder interpretierbaren Abnahmekriterien
- Scope Creep ohne vertragliche Handhabe, wenn Anforderungen im Prozess reifen
- Mängelhaftung für Fehler, die auf unklaren Anforderungen des Auftraggebers basieren
- Hoher administrativer Aufwand durch formale Änderungsanträge – in großen Projekten bis zu 15 % der Gesamtprojektkosten
Dienstvertrag: Flexibilität mit klaren Steuerungsanforderungen
Der Dienstvertrag passt naturgemäß besser zu agilen Entwicklungsumgebungen. Der Auftragnehmer schuldet qualifizierte Arbeit, nicht ein bestimmtes Ergebnis. Das verschiebt die Verantwortung für Scope-Entscheidungen und Priorisierung zum Auftraggeber – was eine aktive Steuerungsrolle erfordert. Teams, die nach Scrum oder Kanban arbeiten, setzen fast ausnahmslos auf dieses Modell, weil Sprint-Inhalte sich von Iteration zu Iteration verändern können, ohne dass ein Vertragswerk angepasst werden muss.
Wer den Dienstvertrag professionell einsetzt, definiert dennoch klare Service Level Agreements: Reaktionszeiten, Verfügbarkeit der Entwickler, Reporting-Zyklen und Qualitätskennzahlen wie Testabdeckung oder Deployment-Frequenz. Ohne diese Steuerungsparameter entsteht schnell das Bild einer unkontrollierten Kostenstelle. Ein bewährtes Muster in der Praxis: monatliche Budgetgrenzen kombiniert mit wöchentlichen Fortschritts-Reviews auf Basis von Velocity-Metriken.
Für Projekte mit unklaren oder sich entwickelnden Anforderungen – also die Mehrheit aller komplexen Softwarevorhaben – ist der Dienstvertrag mit definierten Governance-Strukturen die überlegene Wahl. Der Werkvertrag behält seine Berechtigung bei klar abgegrenzten Deliverables, bei denen Abnahmekriterien messbar und vollständig dokumentierbar sind.
Kreativität und Prozessgestaltung: Wie strukturiertes Denken Innovation ermöglicht
Ein weit verbreiteter Irrtum in der Prozessoptimierung lautet: Struktur tötet Kreativität. Das Gegenteil ist wahr. Teams, die ohne klare Prozesse arbeiten, verschwenden bis zu 40 % ihrer kognitiven Kapazität auf organisatorische Reibungsverluste – Energie, die dann für echte Innovation fehlt. Erst wenn Routineentscheidungen durch definierte Abläufe automatisiert werden, entsteht der mentale Freiraum für kreatives Problemlösen.
Das Paradox strukturierter Kreativität zeigt sich besonders deutlich in der Softwareentwicklung. Teams, die nach einem klaren Entwurfsprozess arbeiten, liefern nachweislich innovativere Lösungen als solche, die im kreativen Chaos arbeiten. Der Grund: Constraints erzwingen unkonventionelles Denken. Wenn ein Entwicklungsteam weiß, dass die Entwurfsphase eines Projekts klare Ziele und Meilensteine hat, können sie ihre Kreativität gezielt innerhalb dieses Rahmens entfalten, statt in alle Richtungen gleichzeitig zu denken.
Kreative Prozesse brauchen definierte Freiräume
Die effektivsten Innovationsprozesse folgen einem doppelten Rhythmus: divergentes Denken in abgegrenzten Phasen, gefolgt von konvergenten Entscheidungsprozessen. Google's berühmte 20-Prozent-Zeit oder Spotifys Squad-Modell sind keine anarchischen Konstrukte – sie sind hochstrukturierte Systeme, die kreative Energie kanalisieren. Der entscheidende Hebel ist die zeitliche Kapselung: Kreativität braucht ein Anfang und ein Ende, sonst verläuft sie im Sand.
Praktisch bedeutet das: Legt in eurem Prozessdesign explizite Explorationsphasen fest, die von operativen Entscheidungsphasen getrennt sind. Ein bewährtes Format sind zweistündige Design-Sprints, bei denen das Team zunächst 45 Minuten ohne Bewertung Ideen generiert, bevor ein strukturiertes Priorisierungsverfahren greift. Dieser Ansatz steigert die verwertbare Ideenausbeute in der Praxis um 60–70 % gegenüber ungeregelten Brainstorming-Sitzungen.
Vom Baum zur Schaukel: Das Missverständnis in Innovationsprozessen
Das klassische Bild des Baums und der Schaukel als Metapher für Entwicklungsprozesse trifft einen zentralen Nerv: Viele Teams entwickeln, was sie für technisch brilliant halten, ohne den tatsächlichen Bedarf wirklich verstanden zu haben. Prozessgestaltung und Kreativität müssen daher immer mit einer klaren Problemdefinition beginnen. Der erste kreative Akt ist nicht das Lösen, sondern das präzise Formulieren des Problems.
Wer Kreativität in seine Prozesse einbauen will, sollte drei strukturelle Maßnahmen umsetzen:
- Problemraum-Reviews als festen Prozessschritt vor jeder Lösungsphase etablieren
- Cross-funktionale Impulsgeber systematisch in Entwurfsprozesse einbinden – externe Perspektiven erhöhen die Lösungsvielfalt messbar
- Retrospektiven zu Kreativblockaden führen, nicht nur zu technischen Problemen
Die gezielte Optimierung bestehender Softwareprozesse zeigt regelmäßig, dass nicht fehlende Kreativität das Problem ist, sondern fehlende Prozesse, die kreative Arbeit schützen. Meetings, die Entscheidungen herbeiführen müssen, sind der Tod jeder Ideenentwicklung. Wer Innovation will, muss Schutzzonen im Prozess einbauen – und diese verteidigen.