Dr.-Ing. Erhard Henkes, Stand: 23.09.2025
Im Ollama Library gibt es viele Modelle verschiedenster Größe und Leistung. Für Einsteiger sind besonders diese interessant:
| Modell | Größe / Parameter-Bereich* | Besonderheiten | Für wen geeignet? |
|---|---|---|---|
| gemma3 | ~27B / auch kleiner Versionen (4 B etc.) Ollama+1 | Sehr leistungsfähig, auch für Vision-Aufgaben; gute Balance zwischen Leistungsfähigkeit und Hardware-Bedarf. Ollama+1 | Für Nutzer mit etwas stärkerer GPU oder gutem PC, die gute Resultate wollen. |
| llava | Größen wie 7B, 13B, 34B (je nach Version) Ollama+1 | Ein multimodales Modell → kann Bilder und Text verarbeiten. Wenn man z. B. auch Bildfragen stellen möchte. Ollama | Wer neugierig ist, wie KI mit visuellen Inhalten umgehen kann, nicht nur mit Text. |
| llama3.2-vision | Größen wie 11B und 90B Ollama | Modell mit Bildverarbeitung (vision-Komponente) plus Text. Ollama | Wer was ausprobieren will mit Bildern und Text gemischt, z. B. Bildbeschreibungen etc. |
| qwen2.5 | Varianten von klein bis groß (z. B. bis ~30-70B) Ollama+1 | Sehr vielseitig, unterstützt viele Sprachen, gute Leistung bei verschiedenen Aufgaben. Ollama+1 | Wer breiter arbeiten will (mehrsprachig, verschiedenartige Aufgaben). |
| mistral-small / Mistral 7B | kleinere Versionen, etwa ~7B Parameter etc. Ollama+2Ollama+2 | Sehr gute Einsteigermodelle: relativ wenig Ressourcen nötig, aber trotzdem brauchbare Qualität. Ollama+1 | Wer mit beschränkter Hardware arbeitet (z. B. kein High-End-GPU) und einfach schauen will, was machbar ist. |
* Größenangaben in „b“ („Billion Params“ = Milliarden Parameter) sind ein Maß für Komplexität und Anforderungen; je mehr Parameter, desto mehr Rechenleistung und Speicher nötig.
Damit das Loslegen gut klappt, hier ein paar Tipps, worauf man beim Auswählen eines Modells schauen sollte:
Hardware / GPU /
Arbeitsspeicher
Wenn dein PC keine starke Grafikkarte hat,
dann lieber kleinere Modelle wählen (z. B. unter 10b; oder Modelle,
die speziell als „klein“ oder „compact“ bezeichnet sind).
Text- vs. Vision-Modelle
Möchtest du nur mit Text arbeiten oder
willst du Bilder/Grafiken einbinden? Wenn letzteres: Modelle, die
„vision“ / „multimodal“ im Namen haben, bieten diese Funktionalität
– brauchen jedoch mehr Leistung.
Mehrere Größen
ausprobieren
Viele Modelle gibt es in verschiedenen
Größen: z. B. „klein“ / „mittel“ / „groß“. Kleinere Versionen sind
schneller, brauchen weniger Platz, liefern aber oft weniger Schärfe
/ Detailgenauigkeit. Langfristig ist Qualität wichtig.
Aktualität &
Community-Feedback
Modelle, die „neu“ sind oder viel „Pulls“
(also viele Nutzer) haben, sind oft stabiler und besser
dokumentiert. Ollama zeigt an, wie oft ein Modell heruntergeladen
wurde (Pulls) und wann es zuletzt aktualisiert wurde.
Ollama
Einsatzgebiet
– Willst du Texte generieren, Geschichten,
E-Mails etc.? → Textmodelle reichen aus.
– Willst du programmieren, Code verstehen?
→ Code-oder spezialisierte Modelle (z.B. „coder“ Versionen) sind
geeigneter.
– Multimodale Aufgaben (z.B. Bilder +
Text) brauchen Vision-Modelle.
Hier sind drei konkrete Tipps, wie man sich “hocharbeiten” kann – vom einfachen, schnellen Einstieg bis zu mehr Leistung, wenn der Rechner mitspielt.
| Stufe | Modell | Warum dieser Schritt? | Was brauchst du ungefähr an Hardware? |
|---|---|---|---|
| Stufe 1 – schneller Einstieg | gemma3:1b | Sehr klein, lädt blitzschnell, reagiert fast direkt. Ideal, um Grundprinzipien von Ollama & Prompts auszutesten, ohne Wartezeiten. Ideal zum Testen. | Ein normaler Windows-Laptop oder -PC mit 16 GB RAM. Dedizierte GPU nicht notwendig. |
| Stufe 2 – mehr Qualität, moderate Anforderungen | gemma3:4b | Sichtbar bessere Antworten als 1b, immer noch relativ schnell; gute Balance zwischen Leistung und Hardwarebedarf. Klarer Tipp! | Wer 16 GB RAM hat und idealerweise eine stärkere GPU oder zumindest eine gute integrierte Grafikkarte. Ladezeit und Reaktionszeit werden etwas spürbarer (einige Sekunden), aber noch komfortabel. |
| Stufe 3 – Leistung und Komfort | gemma3:12b |
Wenn 4b flüssig läuft, bietet 12b deutlich mehr
Details, bessere Formulierungen, längere
Kontextfenster etc. |
Starker PC mit ausreichendem Speicher – z. B. 32 GB RAM oder gute GPU. Auch SSD-Platz für das Modell erforderlich. |
| Alternative / Quervergleich | llama3:1.8b |
Diese Variante von Llama3 ist größer und
leistungsfähiger als die kleineren Gemma-Modelle,
insbesondere bei Nuancen, Formulierungen und
Vielseitigkeit. Gut, um zu sehen, wie sich
verschiedene Modellfamilien unterscheiden. Klarer Tipp! |
Ähnlichere Anforderungen wie für gemma3:4b – je nachdem, wie optimiert/quantisiert das Modell ist; etwas mehr RAM und schneller Speicher - wie immer - vorteilhaft. |
Wenn gemma3:4b sehr schnell reagiert und dein Rechner beim Tippen oder bei längeren Prompts kaum ins Stocken gerät, dann ist der Sprung auf gemma3:12b eine gute Idee.
Bevor du auf ein großes Modell wechselst, prüfe, ob du ausreichend freien Speicherplatz auf der Festplatte hast (Modelle sind mehrere GB groß).
Achte auf Latenz: Wenn das Schreiben & Antworten merklich langsamer wird, lieber wieder ein kleineres Modell wählen, sonst leidet der Workflow. Antwortzeiten im Minutenbereich sind selten befriedigend.