Zum Inhalt springen
Logosoftware-architecture.ai
KI-Strategie9 Min. Lesezeit

Wenn der Mensch zum Bottleneck wird: Wie semantische Wissensnetzwerke dich aus der Informationsflut holen

Illustration: Wenn der Mensch zum Bottleneck wird: Wie semantische Wissensnetzwerke dich aus der Informationsflut holen

Kennst du den Moment, wenn du morgens den Laptop aufmachst und ein paar Agenten schon Vorschläge liefern? Einer hat einen Report-Entwurf vorbereitet. Ein anderer fragt, ob er eine Mail rausschicken darf.

Du fängst an zu lesen. Du musst entscheiden. Du musst bewerten. Und während du noch beim ersten bist, kommen die nächsten dazu.

Ein typisches Muster: Teams haben endlich Agenten am Laufen, die Tools liefern, und plötzlich merken sie: Die Maschinerie produziert mehr Output, als ein Mensch sinnvoll prüfen kann. Nicht in einer Stunde. Nicht in einem Tag. Hier knirscht es. Und das spürst du meistens lange, bevor es ein Dashboard zeigt.

Die gute Nachricht zuerst: Es gibt einen Weg raus. Nicht durch mehr Disziplin, nicht durch noch ein Produktivitätstool, sondern durch eine andere Art, wie dein Wissen organisiert ist. Das Stichwort heißt semantische Wissensnetzwerke, und genau da wollen wir gleich hinkommen. Lass uns aber zuerst genau anschauen, woraus dieser Bottleneck eigentlich besteht. Weil das oft falsch verstanden wird.

Was bedeutet es, dass der Mensch zum Bottleneck wird?

Wir verwechseln das oft mit „zu viel Arbeit“. Aber das ist es nicht. Drei Engpässe treffen gleichzeitig zusammen: zu viele Entscheidungen, zu viel Information zum Sichten, zu wenig Kontext, um sicher freizugeben.

Erstens, die Entscheidungslast. Jeder Agenten-Output braucht eine Bewertung. Stimmt das? Schicke ich das raus? Korrigiere ich? Lasse ich nochmal laufen?

Zweitens, die Informationsmenge. Jeder Output kommt mit Kontext, Quellen, Zwischenstufen. Du musst nicht nur das Ergebnis bewerten. Du musst auch verstehen, wie es zustandegekommen ist.

Drittens, die Kontextlücken. Der Agent kennt die letzte E-Mail vom Kunden nicht. Er weiß nicht, dass der Vertrag mit Lieferant Müller eine Sonderklausel hat. Er weiß nicht, dass die Buchhalterin im Urlaub ist. Du musst dieses Wissen jedes Mal nachliefern.

Über das Phänomen, plötzlich den ganzen Tag entscheiden zu müssen, habe ich in „Decision Fatigue in der KI-Ära“ ausführlich geschrieben. Was ich dort beschreibe, ist eine Seite des Bottlenecks. Die andere Seite ist die schiere Informationsmenge, die durch dich hindurchfließen will. Und genau bei dieser Informationsmenge wird es interessant. Da liegt der Hebel.

Wie viel Zeit verbringen Wissensarbeiter wirklich mit Informationssuche?

McKinsey hat das gemessen: Im Schnitt 1,8 Stunden pro Tag. Das sind etwa 9 Stunden pro Woche, nur fürs Suchen und Zusammentragen (Quelle: McKinsey, The Social Economy).

9 Stunden pro Woche, in einem Team von 10 Personen, sind 90 Stunden. Pro Woche. 360 Stunden im Monat. Eine ganze Stelle im Team beschäftigt sich Vollzeit damit, Sachen zu suchen, die irgendwo schon liegen. Niemand hat dafür eine Stellenbeschreibung. Es passiert einfach.

Und jetzt kommt der Twist mit den Agenten. Wenn du Agenten einsetzt, machen die schneller. Sie produzieren schneller. Aber sie suchen oft im selben fragmentierten Wissensraum wie du. Mit denselben blinden Flecken. Sie verstärken das Problem, statt es zu lösen.

Der DORA Report 2025 zeigt das ziemlich deutlich: Code-Review-Zeiten sind in Teams mit AI-Coding-Tools um 91 Prozent gestiegen. Nicht (unbedingt) weil der Code schlechter wurde. Weil mehr davon da ist und der Review-Prozess unverändert blieb (Quelle: Faros AI / DORA Report, 2025).

Übersetzt heißt das: Mehr Output, mehr Information, mehr zu prüfen. Und als Mensch sitzt du in der Mitte und sollst alles bewerten. Da kommt jeder an die Grenze.

Warum wird der Druck größer, wenn man mehr Agenten einsetzt?

Weil jeder Agent zusätzlichen Output produziert, den ein Mensch prüfen, freigeben oder korrigieren muss. Die Anzahl der Entscheidungen wächst linear mit der Anzahl der Agenten, die kognitive Kapazität des Menschen aber nicht.

Das Phänomen selbst ist alt. In der Mensch-Maschine-Interaktion heißt es „Vigilance Decrement“, beschrieben von Parasuraman und Manzey bereits 2010: Die Aufmerksamkeit nimmt mit der Zeit messbar ab, gerade bei Aufgaben, wo selten ein Fehler auftaucht. Genau diese Rolle übernimmt der Mensch in einer agentic Organisation, seltene Halluzinationen und Kontextfehler aus einer Flut korrekter Outputs herausfischen. Eine aktuelle Übersichtsarbeit aus dem IJRIAS bündelt die Befunde dazu im Kontext von Human-in-the-Loop-Frameworks (Quelle: IJRIAS, 2026).

BCG hat in seinem 2025-Guide zu Human-in-the-Loop genau das beschrieben: Designer von HITL-Systemen müssen Automation Bias, Müdigkeit und kognitive Überlastung mitdenken. Standard-Review reicht nicht (Quelle: BCG, 2025).

Im Alltag klingt das oft so: „Ich winke nur noch durch.“ „Ich klicke OK, weil ich nicht alles lesen kann.“ „Wenn der Agent ‚Looks good‘ sagt, vertraue ich ihm, sonst werde ich nie fertig.“ Das ist die Wahrheit. Niemand sagt es laut. Aber das passiert, wenn der Mensch zum Bottleneck wird.

Was ist die Lösung, wenn der Mensch zum Bottleneck wird?

Hier kommt der Reframe. Nicht der Mensch ist das Problem. Das Wissen ist es. Genauer: die Art, wie es liegt. Nicht der Mensch muss schneller werden, sondern das Wissen muss so organisiert sein, dass die Agenten weniger Rückfragen brauchen und der Mensch weniger Kontext nachliefern muss.

Solange wir denken, der Mensch muss disziplinierter, fokussierter, schneller werden, lösen wir das Problem nicht. Wir verschieben es nur. Vom Burnout heute zum Burnout in einem halben Jahr.

Der Hebel liegt nicht beim Menschen. Er liegt beim Wissen.

Konkret: Die meisten Agenten arbeiten heute mit unstrukturiertem Wissen. PDFs, Confluence-Seiten, E-Mail-Verläufe. Sie suchen über semantische Ähnlichkeit. Das ist Vector-RAG. Funktioniert für einfache Fragen.

Aber die echten Bottleneck-Fragen sind nie einfach. Es sind Fragen, die mehrere Schritte brauchen: „Welche Kunden haben wir, deren Vertrag in den nächsten drei Monaten ausläuft und die in den letzten sechs Monaten weniger als üblich bestellt haben?“ Drei Joins, ein zeitlicher Filter. Das findet keine Vektor-Suche. Und genau hier kommen Knowledge Graphs ins Spiel.

Wie funktionieren semantische Wissensnetzwerke und Knowledge Graphs?

Vom Datensilo zum Wissensnetzwerk. Der Mensch entscheidet, statt zu suchen.

Ein Knowledge Graph macht aus deinem Unternehmenswissen ein Netz aus Entitäten und Beziehungen. Statt „irgendwo steht ein PDF, das so ähnlich klingt wie deine Frage“ hast du: Der Kunde Müller GmbH hat den Vertrag X abgeschlossen, der wird von Person Y verantwortet, der Vertrag enthält die Klausel Z.

Stell dir den Unterschied so vor. Klassische Suche ist wie eine Bibliothek, in der du das richtige Buch findest. Ein Knowledge Graph ist wie eine Bibliothekarin, die die Bücher gelesen hat und dir sagt: Das, wonach du fragst, steht in Buch A auf Seite 47, wird in Buch B genauer erklärt, und Person C hat es in einem Vortrag mal anders ausgelegt.

Wenn du mit dem Konzept Retrieval-Augmented Generation noch nicht vertraut bist, hilft dir „RAG erklärt“ als Einstieg. Wissensgraphen sind der nächste Layer darüber.

Cognilium hat in einem Benchmark verschiedene Anfragetypen gegenübergestellt, und das Muster ist konsistent. Bei einfachen Lookup-Fragen liegen Vector-RAG und GraphRAG nah beieinander, 91 zu 94 Prozent. Bei Multi-Hop-Fragen klafft die Lücke auf: 54 zu 89 Prozent. Bei expliziten Beziehungsfragen 41 zu 87 Prozent. Im Schnitt über alle Anfragetypen 57 zu 86 Prozent (Quelle: Cognilium, 2025).

Genauigkeit nach Anfragetyp

Wo Wissensgraphen den Unterschied machen

Vector-RAGGraphRAGDifferenz in Prozentpunkten
Einfache Lookups
91%
94%
+3
Multi-Hop-Fragen
54%
89%
+35
Beziehungsfragen
41%
87%
+46
Zeitliche Filter
38%
82%
+44
Aggregationen
62%
78%
+16
Schnitt über alle Anfragetypen
57%
86%
+29

Quelle: Cognilium Benchmark, 2025

Diffbot hat in einem eigenen Benchmark gezeigt, dass GraphRAG im Schnitt 3,4-fach besser abschneidet als Vector-RAG (Quelle: Diffbot KG-LM Benchmark, 2025). Das ist nicht nur akademisches Beiwerk. Das ist der Unterschied zwischen „der Agent versteht nichts“ und „der Agent kann mir wirklich Arbeit abnehmen“.

Wichtig dabei: Knowledge Graph heißt nicht, dass du alles neu strukturieren musst. Atlan formuliert es ehrlich: Die meisten Unternehmen sollten mit Vector-RAG plus strukturierten Metadaten starten und Knowledge-Graph-Komponenten dort drauflegen, wo wirklich Cross-Entity-Traversal gefragt ist (Quelle: Atlan, 2025).

Wie fängt ein kleines Unternehmen damit an?

Klein. Mit einer Domäne, in der Beziehungen zwischen Entitäten den Geschäftsalltag prägen. Kunden, Verträge, Projekte, Lieferanten. Nicht mit dem ganzen Unternehmenswissen auf einmal.

Erstens, identifizier die Bottleneck-Fragen. Was sind die fünf Fragen, die du oder dein Team in der Woche mehrfach beantwortet, und für die du jedes Mal in mehreren Systemen nachschauen musst? Genau dort sitzt der Wert.

Zweitens, modellier diesen Ausschnitt einmal von Hand als Graph. Welche Entitäten gibt es? Welche Beziehungen? Welche Eigenschaften? Das ist eine Fingerübung, eine Verständnis-Übung, kein IT-Projekt. Eine Excel-Tabelle reicht. Sie hilft dir zu sehen, wie dein Wissen wirklich vernetzt ist, und sie wird zur Vorlage für die Ontologie. Nicht mehr.

Drittens, lass den Agenten gegen den Graph arbeiten, nicht gegen die rohen Dokumente. Das ist der eigentliche Trick. Die Ontologie wird zur Linse, durch die der Agent die Welt sieht (Quelle: Aviso, 2025).

Wichtig zu wissen: Den eigentlichen Company-Knowledge-Graph baut später niemand von Hand. Sobald du verstanden hast, wie deine Entitäten und Beziehungen aussehen, übernehmen AI-gestützte Tools die Extraktion automatisch aus Dokumenten, CRM, Tickets, E-Mails. Du kuratierst die Ontologie, das Tooling füllt sie. Die Excel-Übung ist deshalb keine Vorstufe zu einem riesigen Modellierungsprojekt, sondern die Spezifikation, gegen die die Maschine später extrahiert.

Was du davon hast: Wenn der Agent gegen ein gut modelliertes Wissensnetz arbeitet, kommt er mit weniger Rückfragen. Du musst weniger Kontext nachliefern. Du musst weniger korrigieren. Der Bottleneck wird kleiner. Nicht weil du schneller geworden bist, sondern weil das System besser geworden ist.

Was ich aus meiner Arbeit mitbringe, ist eine Überzeugung: Für ein Unternehmen mit 5 oder 15 Leuten ist das eigentlich leichter als für einen Konzern. Du hast keine fünf Datensilos, die seit zwanzig Jahren nicht miteinander reden. Du hast meistens drei Systeme. Drei Systeme zu verbinden ist machbar.

Der Anfang passt auf eine Seite

Der Mensch wird zum Bottleneck, wenn die Maschinerie schneller wird als sein Kontextverständnis. Du löst das nicht, indem du den Menschen schneller machst. Du löst es, indem du das Wissen so organisierst, dass weniger Kontext nachgeliefert werden muss.

Wissensgraphen sind kein Hype. Sie sind die ehrliche Antwort darauf, dass deine Agenten gut sind und dein Kopf begrenzt ist.

Drei Fragen für den Anfang. Welche Entitäten prägen deinen Geschäftsalltag? Welche Beziehungen zwischen ihnen muss ich jeden Tag im Kopf haben? Welche Frage taucht jede Woche auf und kostet mich jedes Mal eine halbe Stunde Suche? Schreib sie auf. Das ist der Anfang.

Mehr braucht es zu Beginn nicht. Keine Tool-Auswahl, keine Architektur-Diskussion. Nur Klarheit darüber, welches Wissen es wert ist, strukturiert zu werden. Der Rest kommt danach. Und der Rest ist deutlich kleiner, als die meisten denken.

In den nächsten zwei Jahren wird sich entscheiden, welche Unternehmen ihre Agenten wirklich produktiv kriegen und welche Burnout-Geschichten produzieren. Der Unterschied ist nicht das Modell, das sie nutzen. Der Unterschied ist, ob sie die Hausaufgabe gemacht haben, ihr Wissen netzwerkfähig zu machen.

Passend zum Thema

Hol dir den kostenlosen Einstiegs-Guide: 10 konkrete Wege, wie du KI ab morgen produktiv einsetzt.

Hat dich dieser Artikel auf eine Idee gebracht? Lass uns herausfinden, welche Sinnvampire bei dir verschwinden können.