ChatGPT, Claude, Gemini – welche KI passt zu dir?
Ein verständlicher Überblick über KI-Anbieter, Modellklassen und Nutzungswege – erklärt mit einer Analogie, die jeder kennt: der Autowelt.
Externer Inhalt blockiert
Der Podcast-Player wird von Podigee bereitgestellt. Bitte akzeptiere externe Inhalte in den Cookie-Einstellungen, um den Player zu laden.
Das nimmst du mit
- Die vier relevanten KI-Anbieter sind OpenAI (ChatGPT), Anthropic (Claude), Google (Gemini) und Mistral – der einzige europäische Player.
- KI-Modelle gibt es in Luxus-, Mittel- und Kompaktklasse – nicht jede Aufgabe braucht das größte und teuerste Modell.
- Die Entwicklung geht vom reinen Sprachmodell (LLM) zum Reasoning-Modell, das eigene Antworten hinterfragt, bevor es sie ausgibt.
- Für den Einstieg reicht die Direktnutzung bei einem Anbieter für rund 20 Dollar im Monat völlig aus.
- Multi-Modell-Plattformen mit Credit-System ermöglichen den Zugriff auf verschiedene KI-Modelle über eine einzige Oberfläche.
KI ist überall – aber wer steckt eigentlich dahinter?
KI begegnet dir mittlerweile in jeder App, auf jeder Plattform, in jedem Tool. Aber was genau ist diese KI? Wer stellt sie her? Und vor allem: Wie und wo kannst du selbst damit arbeiten?
Damit das Ganze greifbar bleibt, hilft eine Analogie, die jeder kennt: die Autowelt. KI ist im Grunde ein Motor. Und genauso wie wir beim Auto nicht über Zylinderzahlen reden, sondern über Marken, Modelle und Einsatzzwecke, funktioniert es auch bei der KI. Verschiedene Anbieter, verschiedene Modelle, verschiedene Nutzungswege.
Die vier Anbieter, die du kennen solltest
Hinter den KI-Chatbots und -Assistenten stecken spezialisierte Firmen, die sogenannte Sprachmodelle (LLMs – Large Language Models) entwickeln. Vier davon sind wirklich relevant:
OpenAI – Der bekannteste Anbieter, Pionier der modernen KI-Nutzung durch ChatGPT. Große Investoren, breite Öffentlichkeit. In der Auto-Analogie: der Mercedes.
Anthropic – Gegründet von ehemaligen OpenAI-Mitarbeitern mit besonderem Fokus auf Sicherheit und Datenschutz. Ihre Modelle heißen Claude. In der Analogie: der Audi.
Google – Mit Gemini im KI-Rennen wieder ganz weit vorne. Jeder kennt Google, jeder hat es schon genutzt. In der Analogie: der BMW.
Mistral – Der einzige wirklich relevante europäische Anbieter, aus Frankreich. Besonders interessant für alle, die Wert auf europäische Datensouveränität legen. In der Analogie: der Volkswagen.
Zwei Firmen, die bewusst ausgelassen werden
XAI (GROK) von Elon Musk: bekannt für fehlende ethische Leitplanken und die Tendenz, weltpolitische Ansichten seines Gründers als einzig wahre Perspektive darzustellen.
DeepSeek aus China: Technisch leistungsstark und kostenlos nutzbar, aber laut Geheimdienstberichten primär darauf ausgelegt, westliche Nutzerdaten abzugreifen und ungefiltert an den chinesischen Geheimdienst weiterzuleiten. Bei so vielen guten Alternativen besteht schlicht kein Grund, dieses Risiko einzugehen.
Modellklassen – nicht jedes Auto ist für jede Fahrt geeignet
Jeder Anbieter hat mehrere Modelle – genau wie Automobilhersteller verschiedene Fahrzeugklassen anbieten:
- Luxusklasse – Die leistungsstärksten, rechenintensivsten Modelle. Das Aushängeschild jeder Firma.
- Mittelklasse – Zuverlässig, schnell, für die allermeisten Aufgaben perfekt geeignet.
- Kompaktklasse – Günstig, effizient, ideal für einfache Anfragen.
- Spezialfahrzeuge – Für besondere Aufgaben. Wie der Traktor auf Spinnenbeinen über Weinfeldern: speziell, aber genau dafür gebaut.
Die Modelle im Überblick
OpenAI nummeriert relativ geradlinig: GPT-3, 3.5, 4, 4o (das „o" steht für Omni, also multimodal). Dazu kommen die Reasoning-Modelle O1 und O3, jeweils in Mini- und Pro-Varianten. Die Entwicklung ist vergleichbar mit der Golf-Reihe: jede Generation besser, effizienter, komfortabler.
Anthropic hat drei Modellfamilien: Sonnet (der solide A3), Opus (eher der A6 oder A8) und Haiku (der kompakte A1). Alle durchlaufen Versionssprünge – aktuell bei Version 4.
Google hält es übersichtlich mit zwei Modellfamilien: Flash (schnell und effizient) und Pro (hochperformant). Aktuell in Version 2.5, jeweils mit optional aktivierbarer Reasoning-Funktion.
Mistral bietet LeChat (die Standard-Sprachmodelle) und seit neuestem Magistral als erste eigene Reasoning-Modelle.
Vom Sprachmodell zum Denkmodell
Eine wichtige Entwicklung: Die Branche bewegt sich weg vom reinen Sprachmodell (LLM) hin zum Reasoning-Modell (LRM). Der Unterschied? Klassische LLMs generieren Wort für Wort auf Basis von Wahrscheinlichkeiten. Reasoning-Modelle reflektieren, hinterfragen ihre eigenen Antworten und denken nach, bevor sie etwas ausgeben.
Die Entwicklung geht weg vom reinen Sprachmodell hin zum Reasoning-Modell – KI, die ihre eigenen Antworten hinterfragt, bevor sie sie ausgibt.
Vier Wege, KI zu nutzen
1. Direkt beim Anbieter
Du gehst auf chatgpt.com, claude.ai oder gemini.google.com, erstellst ein Konto und legst los. Kostenlos möglich, aber mit Einschränkungen. Für rund 20 Dollar im Monat bekommst du bei jedem Anbieter schon sehr viel: Chat-Historie, Projekte anlegen, sogar eigene GPTs oder KI-Agenten erstellen.
In der Analogie: Du gehst direkt zum Autohaus, least dir für einen überschaubaren Betrag ein solides Modell und darfst damit eine bestimmte Strecke pro Monat fahren.
Der Nachteil: Du bist an einen einzigen Anbieter gebunden. Du kannst natürlich mehrere Konten einrichten, aber für den Einstieg reicht ein einzelner Anbieter völlig aus.
2. Multi-Modell-Plattformen mit Credit-System
Plattformen wie Striko funktionieren wie ein Autoverleih. Du zahlst einen monatlichen Betrag und erhältst Credits, mit denen du verschiedene Modelle nutzen kannst – egal von welchem Anbieter. Eine Anfrage mit ChatGPT 4o kostet vielleicht 1 Credit, dieselbe Anfrage mit Claude Opus 4 kostet 10 Credits, weil das Modell leistungsstärker ist.
Das ist transparent, flexibel und ideal, wenn du verschiedene Modelle für verschiedene Aufgaben einsetzen willst – alles über eine einzige Oberfläche.
3. API-basierte Plattformen
Tools wie TypingMind bieten denselben Zugang zu verschiedenen Modellen, rechnen die Kosten aber direkt über die API-Verbindungen zu den jeweiligen Anbietern ab. Meist als Einmalzahlung (Lifetime-Deal) zu haben, dafür etwas aufwändiger in der Einrichtung. Du brauchst für jeden Anbieter eine eigene API-Anbindung und behältst selbst den Überblick über die tokenbasierte Abrechnung.
4. Integrierte Tools – das Taxi-Modell
Viele Apps und Plattformen bieten KI-Funktionen an, ohne dass du das direkt merkst. Das Taxi sieht anders aus als der Privatwagen, aber unter der Motorhaube steckt derselbe Motor – meistens ChatGPT 4o. So funktioniert es auch beim Microsoft Copilot und bei unzähligen anderen Tools, die ihre Produkte mit KI aufwerten.
Genau nach diesem Prinzip arbeiten auch die Chatbots bei Kernkompetenz Pferd: eigene Daten, eigener Systemprompt, aber Anthropic Sonnet oder Google Gemini Pro als Motor im Hintergrund.
Und was ist mit Bild, Audio und Video?
Alles, was in dieser Folge besprochen wurde, bezieht sich auf Text und Sprache. Aber natürlich gibt es auch KI für Bildgenerierung (Dall-E, Midjourney), Audio und Video. Das Konzept ist ähnlich: verschiedene Anbieter, verschiedene Modelle, verschiedene Stärken.
Um in der Analogie zu bleiben: Wenn Sprachmodelle Autos sind, dann sind Bildmodelle Boote – eine andere Welt, aber das gleiche Grundprinzip. Die Brücke dazwischen? Die multimodalen Modelle. Das sind die Amphibienfahrzeuge der KI-Welt: Sie können Text, Bild und Audio in einem System verarbeiten.
Das wichtigste Fazit
Du brauchst nicht alle Anbieter. Du musst nicht das teuerste Modell wählen. Du musst nicht alles verstehen, bevor du anfängst.
Such dir einen aus und leg los. Nur durch eigene Erfahrung lernst du, was KI wirklich kann – und was nicht. Manchmal reicht ein kompaktes Modell völlig aus, um ans Ziel zu kommen. Genauso wie beim Auto.