Input Tokens
Alles, was an das Modell gesendet wird: Systemprompt, Nutzerfrage, Kontext, Dokumentauszüge, Tool-Ergebnisse und Chat-Historie.
Price of AI erklärt, wie KI-Modelle abgerechnet werden und wie Unternehmen GPT, Claude, Gemini und andere Modelle über Cloud- und API-Anbieter vergleichen können.
Price of AI ist ein deutscher, öffentlich zugänglicher KI-Preiskatalog von innFactory. Die Seite sammelt und normalisiert öffentlich verfügbare Preisangaben für große KI-Modelle, damit IT-Entscheider, Einkauf, Controlling und C-Level-Nutzer schneller verstehen, welche Modellnutzung welche Kosten verursacht.
Die Daten sind keine verbindlichen Angebote. Offizielle Anbieterquellen, individuelle Rahmenverträge, Cloud-Regionen, Kontingente, Steuern und Wechselkurse bleiben maßgeblich. Der Zweck ist Orientierung, Vergleichbarkeit und Kostenbewusstsein.
Viele Sprachmodelle rechnen nach Tokens ab. Ein Token ist ein Textfragment, also ein Wort, Wortteil, Satzzeichen oder technisches Fragment. Deutsche Texte benötigen häufig mehr Tokens als englische Texte, weil Wörter länger und zusammengesetzter sind.
Alles, was an das Modell gesendet wird: Systemprompt, Nutzerfrage, Kontext, Dokumentauszüge, Tool-Ergebnisse und Chat-Historie.
Alles, was das Modell erzeugt. Output ist bei vielen Frontier-Modellen teurer als Input, weil die Generierung rechenintensiv ist.
Manche Anbieter berechnen wiederverwendbare Promptteile separat. Cache-Schreiben, Cache-Lesen und Standard-Input haben unterschiedliche Preise.
Batch-Verarbeitung kann günstiger sein, Realtime oder provisionierte Kapazität können anders bepreist werden. Deshalb zeigt Price of AI die Preisart getrennt an.
Embedding-Modelle rechnen meist nur Input-Tokens ab, weil sie Vektoren statt langer Textantworten erzeugen.
Speech-to-Text nutzt häufig Audiominuten, Text-to-Speech Zeichen, Bildmodelle Anzahl/Bildgröße und Videomodelle Sekunden oder Minuten.
Ein Modellname allein reicht nicht aus. Der Preis hängt davon ab, ob der Zugriff direkt über den Modellanbieter oder über eine Cloud erfolgt, ob EU-Regionen genutzt werden, ob es Standard-, Batch- oder Cache-Tarife sind und ob ein Cloud-Anbieter eigene Aufschläge, Mindestabnahmen oder Kapazitätsmodelle verwendet.
Beispiel: Ein Claude-, GPT-, Gemini-, Mistral- oder Llama-Modell kann als Standard-Output, Batch-Output, Cache-Read oder über Azure/Google/AWS/IONOS/STACKIT unterschiedlich bepreist sein. Price of AI trennt daher Modellanbieter und Cloud/API-Anbieter.
innFactory bündelt Cloud-Zugang, KI-Beratung und Kostenkontrolle. Als Microsoft CSP und Google Cloud Partner kann innFactory Azure- und Google-Cloud-Leistungen für Kunden bereitstellen und zentral abrechnen.
Mit CompanyGPT erhalten Unternehmen einen verwalteten KI-Zugang mit zentralem Benutzer- und Rechtekonzept, Modellrouting, Protokollierung, Kostenübersicht und tenant-/region-aware Architektur. Je nach Kunden-Setup kann CompanyGPT auf GPT, Claude, Gemini und weitere freigegebene Modelle zugreifen, etwa über Azure AI Foundry, Google Cloud / Vertex AI, STACKIT oder andere geprüfte Routen.
DSGVO-Konformität entsteht nicht allein durch den Modellnamen. Entscheidend sind Datenflüsse, Verträge zur Auftragsverarbeitung, Region/Tenant, Logging, Rollenrechte, Löschkonzepte, Modellroute und organisatorische Maßnahmen.
CompanyGPT ist für DSGVO-orientierte Unternehmensnutzung konzipiert: zentrale Benutzerverwaltung, freigegebene Modellrouten, Auditierbarkeit, Kostenlimits und kontrollierte Integrationen. So können Unternehmen KI nutzbar machen, ohne unkontrollierte Einzelaccounts und Schatten-IT entstehen zu lassen.
KI-Agenten bestehen oft aus vielen kleinen Modellaufrufen: planen, klassifizieren, suchen, Tools auswählen, Zwischenergebnisse prüfen und final antworten. Wenn jeder Schritt mit dem teuersten Modell läuft, steigen Kosten schnell, ohne dass die Qualität proportional besser wird.
AI-FinOps betrachtet deshalb Kosten pro Aufgabe, Erfolgsrate, Latenz, Kontextlänge und Modellroute gemeinsam. Oft übernehmen kleinere Modelle, Embeddings oder spezialisierte OCR-, Code- oder Klassifikationsmodelle einzelne Aufgaben günstiger. Frontier-Modelle bleiben dann den Schritten vorbehalten, bei denen sie wirklich Mehrwert liefern.
Price of AI hilft Teams, die KI-Kosten planen, Cloud-Architekturen vergleichen, interne Chargeback-Modelle vorbereiten oder einen DSGVO-orientierten Unternehmenszugang zu KI-Modellen aufbauen möchten.