Requirements Engineering

Requirements Engineering und KI: Wo Automatisierung endet und menschliche Expertise beginnt

Der Druck auf IT-Entscheider wächst, Prozesse durch den Einsatz Künstlicher Intelligenz (KI) zu beschleunigen. Und tatsächlich: Generative AI liefert im Coding oder Testing bereits messbare Effizienzgewinne. Doch bei der wohl kritischsten Phase eines jeden Digitalprojekts – dem Requirements Engineering (RE) – ist Vorsicht geboten.

Daten aus dem Umfeld des IBM Systems Sciences Institute illustrieren eine fundamentale Wahrheit der Softwareentwicklung, die auch im KI-Zeitalter gilt: Die Kosten für die Behebung eines Fehlers steigen um den Faktor 100, wenn er erst nach dem Release gefunden wird, statt während der Designphase.

Wenn wir KI ungeprüft Anforderungen schreiben lassen, beschleunigen wir zwar die Erstellung der Dokumente, riskieren aber, Fehler exponentiell schneller ins Fundament zu gießen.

Effizienz ist nicht gleich Effektivität

Large Language Models (LLMs) sind exzellente Werkzeuge, um vorhandene Informationen zu verarbeiten. Sie können Protokolle zusammenfassen oder User Stories syntaktisch glätten. Doch sie scheitern oft am Kontext.

Das Praxis-Beispiel: Nehmen wir an, Sie füttern eine KI mit Meeting-Notizen für ein neues Kundenportal. Die KI generiert daraus in Sekunden perfekte User Stories im Format: „Als Kunde möchte ich meine Rechnung als PDF laden, um sie abzuheften.“

Was die KI übersieht: Im Nebensatz wurde erwähnt, dass das ERP-System nachts gewartet wird. Ein menschlicher Engineer hätte hier sofort eine technische Anforderung („Asynchrone Verarbeitung“) abgeleitet. Die KI ignoriert diesen Kontext oft. Das Ergebnis: Ein Feature, das tagsüber funktioniert, aber nachts zum Systemabsturz führt.

Cost of Change Curve Kosten zur Fehlerbehebung steigen exponentiell 1x Analyse 5x Design 10x Coding 50x Testing >100x Live

Grenze 1: Implizites Wissen (Der Eisberg-Effekt)

KI-Modelle operieren ausschließlich auf Basis der Daten, die ihnen explizit zur Verfügung gestellt werden (Prompts). In der Praxis des Requirements Engineering ist jedoch das, was nicht gesagt wird, oft entscheidend.

Szenario aus der Logistik: Ein Unternehmen möchte seine Lagerhaltung digitalisieren. Der Lagerleiter erklärt den offiziellen Prozess. Die KI dokumentiert diesen 1

. Was der Lagerleiter nicht sagt, weil es für ihn selbstverständlich ist: Wenn „Eilauftrag“ auf dem Lieferschein steht, wird der reguläre Scan-Prozess umgangen und die Ware direkt zur Rampe gefahren.

Ein erfahrener Requirements Engineer beobachtet Prozesse („Shadowing“) und stellt Fragen wie: „Was passiert eigentlich bei Ausnahmen?“. Er entdeckt dieses implizite Wissen. Eine KI kann diese Nuancen nicht erkennen.

Grenze 2: Stakeholder-Management und Diplomatie

Softwareentwicklung ist selten ein rein technologisches Problem, sondern oft ein organisatorisches. Der berühmte Chaos Report der Standish Group führt „unvollständige Anforderungen“ und „mangelnde Nutzereinbindung“ konstant als Top-Gründe für das Scheitern von IT-Projekten an.

Ein Requirements Engineer fungiert hier als Diplomat. Er muss Widersprüche in den Zielen aufdecken.

Der Konflikt-Fall:

  • Marketing-Director: „Die Anmeldung muss in einem Klick ohne Passwort funktionieren, für maximale Conversion.“
  • CISO (IT-Security): „Wir brauchen zwingend 2-Faktor-Authentifizierung und komplexe Passwörter.“

Füttert man eine KI mit beiden Aussagen, wird sie entweder halluzinieren, eine Seite bevorzugen oder einen widersprüchlichen Text generieren. Sie besitzt keine politische Sensibilität. Ein menschlicher Experte hingegen moderiert einen Workshop, wägt Risiken gegen Business-Value ab und erarbeitet einen Kompromiss (z. B. „Social Login mit Risk-Based Authentication“).

Grenze 3: Strategische Validierung und Haftung

Gartner prognostiziert in seinen Strategic Predictions, dass Unternehmen verstärkt Schutzmechanismen gegen KI-Risiken aufbauen müssen. Wer haftet, wenn eine von der KI generierte Anforderung Sicherheitslücken offenlässt?

Der Einsatz von KI im RE erfordert zwingend einen „Human-in-the-Loop“-Ansatz. Die finale Abnahme einer Anforderung muss durch Experten erfolgen, die die strategische Tragweite verstehen. KI kann Optionen vorschlagen, aber die Entscheidung muss beim Menschen liegen.

Input LLM Tool Output Human Feedback

Fazit: KI ist der Turbo, der Mensch das Lenkrad

Die Integration von KI in das Requirements Engineering ist unaufhaltsam und sinnvoll. Sie befreit Teams von der „Tyrannei des leeren Blattes“ und beschleunigt die Dokumentation massiv. Doch Geschwindigkeit darf hier nicht mit Zielgenauigkeit verwechselt werden.

In einer Welt, in der Software-Architekturen immer komplexer werden, bleibt die Fähigkeit, zwischen den Zeilen zu lesen, politische Interessen der Stakeholder zu vereinen und strategische Weitsicht zu wahren, eine rein menschliche Domäne. Wer KI als leistungsfähigen „Junior-Assistenten“ begreift, aber erfahrenen Experten die Führung überlässt, wird am Ende nicht nur schneller entwickeln, sondern vor allem das Richtige bauen.


Unser Ansatz: Hybride Intelligenz für Ihr Projekt

Als Digitalagentur setzen wir genau auf diese Arbeitsteilung. Wir nutzen modernste LLMs für maximale Effizienz im Prozess, doch unsere Senior Requirements Engineers garantieren als strategische Partner die Qualität, Sicherheit und Machbarkeit Ihrer Spezifikation.

Wollen Sie Ihr nächstes Vorhaben auf ein solides Fundament stellen, ohne auf Geschwindigkeit zu verzichten? Lassen Sie uns sprechen.

Kostenloses Erstgespräch vereinbaren