AI-Agent-Aktion: Token-Nutzungsoptimierung
Was ist neu
Die AI-Agent-Aktion in Workflows verbraucht jetzt deutlich weniger Tokens pro Ausführung, ohne die Ausgabequalität zu beeinträchtigen. Da die Nutzung pro Token abgerechnet wird, führt das direkt zu geringeren Kosten und mehr Spielraum zum Skalieren.
Was sich geändert hat
Bereinigter Kontext — Duplizierte und interne Daten, die bisher bei jedem Schritt an das Modell gesendet wurden, wurden entfernt. Rohdatenbank-Interna, redundante Kontaktdaten und unnötige Workflow-Metadaten werden nicht mehr mitgeschickt.
Intelligentere Tool-Antworten — Tool-Ausgaben enthielten zuvor viele irrelevante Felder pro Datensatz (z. B. 30+ Berechtigungsfelder pro Nutzer). Jetzt werden nur noch relevante Felder wie Name, E‑Mail und Telefon an das Modell übergeben.
Konversationsspeicherverwaltung — Lang laufende Agenten fassen ältere Gesprächsschritte automatisch zusammen und behalten neuere Schritte im Detail, anstatt die gesamte Historie bei jedem Schritt zu senden.
Optimierung strukturierter Ausgaben — Der letzte Extraktionsschritt dupliziert den Kontext nicht mehr, was tausende Tokens pro Ausführung spart.
Ergebnisse
Getestet mit dem gleichen Workflow und Kontakt ohne Qualitätsverlust:
Erster LLM-Aufruf: 36% weniger Tokens
Gesamte Ausführung: 20% weniger Tokens
Warum das wichtig ist
Jede Workflow-Ausführung ist jetzt schlanker. Gleiche Ausgabequalität, weniger Tokens, geringere Kosten — das bedeutet, dass Sie mehr Automatisierungen ausführen können, ohne die Ausgaben zu erhöhen.
