Nutzungslimits & Fair Use Policy
innoGPT bietet einen fairen Flatrate-Preis – damit das für alle funktioniert, gelten transparente Nutzungslimits, die sicherstellen, dass die Plattform für jeden Nutzer stabil und schnell bleibt.
Warum gibt es überhaupt Limits?
Im Hintergrund jeder Anfrage entstehen reale Kosten: innoGPT zahlt pro verwendetem Token an die jeweiligen Modellanbieter (z. B. OpenAI oder Anthropic). Gleichzeitig bieten wir euch einen festen Flatrate-Preis. Die Limits sind dabei großzügig kalkuliert. Damit das dauerhaft funktioniert und die Plattform für alle Nutzer stabil bleibt, gilt eine Fair Use Policy.
Was verbraucht besonders viele Tokens?
Nicht alle Anfragen sind gleich teuer. Zwei Faktoren fallen besonders ins Gewicht:
Ultra- und Premium-Modelle wie zB Claude Opus oder GPT-5.4 Pro kosten pro Anfrage deutlich mehr als schlankere Modelle. Wer ausschließlich mit diesen Modellen arbeitet, erreicht das Limit entsprechend schneller.
Deep Research führt im Hintergrund viele Einzelanfragen durch und verbraucht daher pro Durchlauf besonders viele Tokens – das summiert sich schnell.
Was passiert, wenn das Limit erreicht wird?
innoGPT greift nicht sofort hart ein. Stattdessen gibt es gestufte Maßnahmen: Zunächst kann es zu einer temporären Ratenbegrenzung kommen. In einem nächsten Schritt werden rechenintensive Modelle vorübergehend eingeschränkt und auf ressourcenschonendere Alternativen umgeleitet. Bei dauerhafter Überschreitung meldet sich innoGPT aktiv, um gemeinsam einen passenderen Plan zu finden.
Tipp zur smarten Nutzung
Für einfache Aufgaben wie Textzusammenfassungen, kurze Antworten oder Standard-Recherchen reichen schlankere Modelle vollkommen aus. Ultra-Modelle solltest du gezielt für komplexe Anfragen einsetzen – so holst du das Maximum aus deinem Kontingent heraus.
Verfügbare Pläne & Modelle
Je nach Plan stehen dir unterschiedliche Modell-Kategorien zur Verfügung. Generell gilt: Je höher der Plan, desto leistungsstärkere (und rechenintensivere) Modelle sind freigeschaltet.
Welcher Plan enthält welche Modell-Kategorien?
Personal / Pro / Business / Partner / Family: Standard, Premium & Ultra
Trial: Standard & Premium
Go: nur Standard
Modellübersicht (Stand: April 2026)
🟢 Standard-Modelle
OpenAI: gpt-5, gpt-5-mini, gpt-5-nano, gpt-5.1, gpt-5.4-mini, gpt-5.4-nano
Anthropic: claude-4-5-haiku
Google: gemini-2.0-flash, gemini-2.5-flash, gemini-2.5-pro, gemini-3-flash-preview
Mistral: mistral-large, mistral-small, devstral-2
xAI: grok-4-1-fast-reasoning
DeepSeek: deepseek-r1, deepseek-v3, deepseek-v3.2
Meta: llama-4-maverick
Perplexity: sonar-deep-research
Moonshot: kimi-k2-thinking, kimi-k2.5
🟡 Premium-Modelle
OpenAI: gpt-5-codex, gpt-5.2, gpt-5.2-codex, gpt-5.3-codex, gpt-5.3-instant, gpt-5.4
Anthropic: claude-4-sonnet, claude-4-6-sonnet
Google: gemini-3.1-pro-preview
xAI: grok-3
Cohere: cohere-command-a
Perplexity: sonar-pro
🔴 Ultra-Modelle
OpenAI: gpt-5.4-pro, o3-mini
Anthropic: claude-4-5-opus, claude-4-6-opus