KI-Agenten vs. KI-Tools im Vergabewesen: Der Unterschied zaehlt
05. März 2026

KI-Agenten vs. KI-Tools im Vergabewesen: Der Unterschied zaehlt

Jeder im Vergabewesen hat den KI-Pitch inzwischen gehoert. "KI-gestuetzte Analysen." "Intelligente Automatisierung." "Smarte Vergabeplattform." Die Worte sind so verwaschen, dass sie kaum noch wahrgenommen werden.

Aber eine echte Unterscheidung geht im Marketing-Nebel verloren, und sie ist wichtig fuer jeden, der KI-Vergabeloesungen evaluiert: der Unterschied zwischen einem KI-Werkzeug und einem KI-Agenten.

Werkzeuge tun, was man ihnen sagt. Agenten erkennen, was getan werden muss.

Ein KI-Werkzeug nimmt Ihre Eingabe und liefert eine Ausgabe. Sie laden ein Dokument hoch, es extrahiert Schluesselbegriffe. Sie schreiben eine Abfrage, es durchsucht eine Datenbank. Sie fuegen Text ein, es fasst ihn zusammen. Jede Aktion wird von Ihnen ausgeloest, und das Werkzeug erledigt eine Sache nach der anderen.

Ein KI-Agent ist anders. Sie geben ihm ein Ziel -- "Bewerte dieses Angebot anhand der Ausschreibungsanforderungen" -- und er erarbeitet die Schritte. Er liest die Ausschreibung, um die Kriterien zu verstehen. Er liest das Angebot, um herauszufinden, was der Bieter anbietet. Er vergleicht sie. Wenn etwas nicht uebereinstimmt, sucht er nach den relevanten Belegen. Er kennzeichnet Probleme nach Schweregrad. Er ueberprueft seine eigenen kritischen Feststellungen in einem zweiten Verifikationsdurchlauf.

Der Agent trifft Entscheidungen darueber, was als Naechstes zu tun ist. Nicht Entscheidungen darueber, ob das Angebot gewinnen soll -- das ist Ihre Sache -- sondern Entscheidungen darueber, wo er suchen, was er vergleichen und was er genauer untersuchen soll.

Warum diese Unterscheidung im Vergabewesen wichtig ist

Die Angebotsbewertung ist keine einzelne Aufgabe. Es ist eine Kette abhaengiger Beurteilungen.

Man kann ein Angebot nicht bewerten, ohne zuerst die Anforderungen zu verstehen. Man kann die Konformitaet nicht beurteilen, ohne sowohl den Ausschreibungsabschnitt als auch den entsprechenden Angebotsabschnitt zu lesen. Man kann nicht feststellen, ob ein behauptetes Merkmal eine Anforderung erfuellt, ohne den technischen Kontext zu verstehen. Man kann Feststellungen nicht priorisieren, ohne zu verstehen, welche Anforderungen Pflicht und welche bewertet sind.

Ein Werkzeug bearbeitet ein Glied dieser Kette. Ein Agent bearbeitet die gesamte Kette.

Hier ein konkretes Beispiel. Angenommen, Sie bewerten ein Angebot fuer eine IT-Infrastruktur-Ausschreibung. Die Ausschreibung verlangt "24/7-Ueberwachung mit maximal 15 Minuten Reaktionszeit bei kritischen Vorfaellen". Das Angebot des Bieters sagt: "Unser Team bietet Rund-um-die-Uhr-Ueberwachungsdienste mit branchenfuehrenden Reaktionszeiten."

Ein Such-Werkzeug koennte "Ueberwachung" in beiden Dokumenten finden und es als Treffer werten. Ein Agent liest beide Aussagen, erkennt, dass das Angebot keine konkrete Reaktionszeit-Zusage macht, und kennzeichnet es als Konformitaetsluecke: "Angebot behauptet Rund-um-die-Uhr-Ueberwachung, bestaetigt aber nicht die 15-Minuten-Reaktionszeit-Anforderung fuer kritische Vorfaelle. Siehe Ausschreibung Abschnitt 3.4.2 und Angebot Seite 47."

Das ist nicht einfach eine intelligentere Suche. Das ist Leseverstaendnis, angewandt auf Vergabelogik.

Die 90-Prozent-Statistik und was sie wirklich bedeutet

Eine von Icertis gesponserte Studie aus 2025 ergab, dass 90 % der Vergabeleiter KI-Agenten bereits nutzen oder erwaegen. Der Markt wird 2025 auf 3,3 Milliarden USD geschaetzt und soll bis 2035 auf 39 Milliarden USD wachsen. Klingt, als wuerde es jeder machen.

Aber nur 4 % haben skalierte Implementierungen. Der Rest pilotiert, experimentiert oder denkt nur darueber nach.

Und das meiste, was Unternehmen heute "KI-Agenten" nennen, sind eigentlich KI-erweiterte Werkzeuge. Sie legen eine Sprachmodell-Schicht ueber bestehende Arbeitsablaeufe -- automatische Generierung von Ausschreibungsantworten, Zusammenfassung von Lieferantendaten, Kategorisierung von Ausgaben. Nuetzlich, ja. Aber sie treffen keine mehrstufigen Bewertungsentscheidungen.

Die realen Beispiele fuer tatsaechliches KI-Reasoning in der Vergabe sind noch selten. Brasiliens ALICE-System hat R$9,7 Milliarden an verdaechtigen Angeboten ausgesetzt und die Pruefzeit von 400 auf 8 Tage verkuerzt -- aber das ist Betrugserkennung, nicht Angebotsbewertung. Die Ukraine's Dozorro erzielte eine 298-prozentige Steigerung der Absprachenerkennung ueber 3.000+ taegliche Ausschreibungen. Chiles ChileCompra nutzte LLMs und erreichte einen 69-prozentigen Rueckgang bei Interessenskonflikten.

Das ist beeindruckend. Aber beachten Sie: Es geht ueberall um Betrugs- und Korruptionserkennung, nicht um die Bewertung der Angebotsqualitaet anhand von Anforderungen. Die Luecke auf der Auftraggeberseite -- wo KI tatsaechlich Angebote liest und mit Ausschreibungskriterien vergleicht -- ist noch weit offen. Die meisten Werkzeuge helfen Bietern, bessere Angebote zu schreiben. Weit weniger helfen Auftraggebern, sie zu bewerten.

Echte agentenbasierte KI fuer die Angebotsbewertung ist selten. Teils weil es technisch schwierig ist. Man braucht Multi-Agenten-Architekturen, in denen verschiedene KI-Modelle verschiedene Teile der Analyse uebernehmen. Man braucht Retrieval-Systeme, die mehrere Dokumente gleichzeitig durchsuchen koennen. Und man braucht Verifikationsschichten, damit die KI sich nicht mit falschen Feststellungen in Halluzinationen verliert.

Wir haben Monate damit verbracht, genau ein solches System zu bauen. Ein orchestrierendes Modell, das die Analyse plant, Sub-Agenten, die Dokumente parsen und durchsuchen, eine semantische Suchschicht, die relevante Inhalte findet, ohne KI-Tokens zu verbrauchen, und ein Verifikationsmodell, das alles ueberprueft, was das System als kritisch einstuft.

Unter der Haube ist es komplex. Aber das Vergabeteam soll sich darum nicht kuemmern muessen. Sie laden Dokumente hoch, klicken auf "Analysieren" und erhalten Feststellungen mit Belegen.

Der echte Test: Belege

Hier die einfachste Art, jede KI-Vergabeloesung zu bewerten: Fragen Sie, woher die Belege stammen.

Wenn die KI Ihnen sagt "dieses Angebot ist teilweise konform", aber nicht auf den genauen Absatz im Angebot und die genaue Anforderung in der Ausschreibung verweisen kann -- dann raet sie. Vielleicht selbstbewusst. Aber sie raet.

Jede Feststellung sollte mit einer Quelle kommen. Nicht "basierend auf unserer Analyse", sondern "der Bieter behauptet X auf Seite 47, Absatz 3, waehrend die Ausschreibung Y in Abschnitt 3.4.2 verlangt." Sie sollten beide Dokumente oeffnen und in Sekunden verifizieren koennen.

Das ist keine schoene Zusatzfunktion. Es ist der Mindeststandard fuer jedes Werkzeug, das Vergabeentscheidungen mit oeffentlichen Geldern beeinflusst.

Was als Naechstes kommt

Der KI-Vergabemarkt wird schnell reifen. Mehr Anbieter werden "Agenten"-Faehigkeiten anbieten. Preise werden sinken. Die Integration mit nationalen E-Vergabe-Systemen wird sich verbessern.

Aber die Grundlagen werden sich nicht aendern. Vergabeteams brauchen KI, die gruendlich liest, ueber Anforderungen nachdenkt, ihre Arbeit zeigt und Menschen die letzte Entscheidung treffen laesst. Ob man es Agent, Werkzeug oder magisches Vergabe-Einhorn nennt, ist weniger wichtig als die Frage, ob es diese Dinge tatsaechlich tut.

Fordern Sie die Belege. Dort liegen die echten Antworten.

Zurueck zum Blog