Was kostet die KI?
Ein Blick auf die Kosten von lokaler Nutzung und Cloud-Diensten.
Lokale Nutzung
Wenn du KI-Modelle auf deinem eigenen Computer laufen lässt, fallen die Hauptkosten bei der Anschaffung der Hardware an. Ein leistungsstarker PC oder vor allem eine gute Grafikkarte können teuer sein.
Die laufenden Kosten beschränken sich meist auf den Stromverbrauch, der bei normaler Nutzung für Einzelpersonen oft vernachlässigbar ist. Open-Source-Software zur Ausführung (wie Ollama) ist häufig kostenlos.
Kern: Hohe Anfangsinvestition möglich, danach sehr geringe laufende Kosten.
Cloud/API-Nutzung
Bei der Nutzung von KI über das Internet (Cloud-Dienste, APIs) zahlst du in der Regel für die tatsächliche Nutzung. Es ist wie beim Strom- oder Wasserverbrauch: Je mehr du nutzt, desto mehr kostet es.
Die Abrechnung erfolgt oft über "Tokens" – kleine Texteinheiten, aus denen deine Anfragen und die Antworten bestehen (mehr dazu im Kapitel Tokenisierung). Für jeden verarbeiteten Token zahlst du einen winzigen Betrag.
Kern: Geringe EinstiegshĂĽrde, Kosten steigen mit der Nutzung.
API-Anbieter wie OpenAI haben unterschiedliche Preise für verschiedene Modelle. Leistungsstärkere Modelle kosten mehr pro Token als schnellere, einfachere Modelle. Ein wichtiger Punkt: Oft kosten die generierten Antwort-Tokens (Output) deutlich mehr als die Anfrage-Tokens (Input), da die KI hier die "Arbeit" leistet.
Preisbeispiele von OpenAI (pro 1 Mio. Tokens, gerundet, Stand April 2025):
- GPT-4.1 nano (Sehr schnell & gĂĽnstig): Input ~$0.10 / Output ~$0.40
- GPT-4.1 mini (Ausgewogen): Input ~$0.40 / Output ~$1.60
- o4-mini (Gutes Reasoning, effizient): Input ~$1.10 / Output ~$4.40
- o3 (Stärkstes Reasoning): Input ~$10.00 / Output ~$40.00
Hinweis: Dies sind nur Beispiele! Preise ändern sich, und andere Anbieter haben andere Modelle und Kosten. Der Trend geht aber oft zu: Bessere Leistung für ähnliches oder nur leicht höheres Geld ("Value for Money"). Es lohnt sich, das passende Modell für die Aufgabe zu wählen, um Kosten zu sparen.
Mit dem folgenden Simulator kannst du die ungefähren Kosten für eine Anfrage bei verschiedenen Modellen abschätzen.
Dieser Simulator nutzt die Tokenisierungs-Logik, um die Anzahl der Input-Tokens zu schätzen. Du kannst auch angeben, wie lang die Antwort etwa sein soll. Beachte, dass dies Schätzungen basierend auf den Beispiel-Preisen sind.
Die Länge dieser Anfrage bestimmt die direkten Input-Tokens.
Teurere Modelle = höhere Kosten/Token.
Längere Antworten = mehr Output-Tokens.
Längerer Verlauf = mehr Input-Tokens.
Wrapper / Zwischen-Dienste
Wie im Kapitel Lokal vs. Cloud erwähnt, leiten Wrapper Anfragen (oft anonymisiert) an grosse APIs weiter. Dafür haben sie eigene Preismodelle.
- Manchmal wird ein Aufschlag auf den API-Preis berechnet (z.B. doppelter Token-Preis).
- Andere bieten Monats- oder Jahresabos mit einem Inklusiv-Volumen an (was fĂĽr Wenig-Nutzer teuer sein kann).
- Manche haben eine kostenlose Basis-Version mit Einschränkungen.
Der Aufpreis finanziert den Datenschutz, die eigene Infrastruktur, Entwicklung und Support des Wrappers. Es lohnt sich zu prĂĽfen, wie transparent die Preise im Vergleich zu den zugrundeliegenden API-Kosten sind.
Abo-Modelle (z.B. ChatGPT Plus)
Direkte Abos bei Anbietern (wie ChatGPT Plus) bieten oft für eine feste Monatsgebühr Zugang zu leistungsfähigen Modellen, manchmal mit bevorzugtem Zugriff oder höheren Nutzungslimits als bei Gratis-Versionen.
Dies kann sich für Vielnutzer lohnen, ist aber weniger flexibel als die nutzungsbasierte API-Abrechnung. Manchmal sind die über Abos zugänglichen Modelle auch leicht anders konfiguriert als die Top-API-Modelle.