Einstieg in lokale Artificial Intelligence (AI) mit Ollama (Teil 4)

Dr.-Ing. Erhard Henkes, Stand: 23.09.2025

Zurück

 

Modelle bei Ollama – aktuell & besonders geeignet für Einsteiger

Im Ollama Library gibt es viele Modelle verschiedenster Größe und Leistung. Für Einsteiger sind besonders diese interessant:

Modell Größe / Parameter-Bereich* Besonderheiten Für wen geeignet?
gemma3 ~27B / auch kleiner Versionen (4 B etc.) Ollama+1 Sehr leistungsfähig, auch für Vision-Aufgaben; gute Balance zwischen Leistungsfähigkeit und Hardware-Bedarf. Ollama+1 Für Nutzer mit etwas stärkerer GPU oder gutem PC, die gute Resultate wollen.
llava Größen wie 7B, 13B, 34B (je nach Version) Ollama+1 Ein multimodales Modell → kann Bilder und Text verarbeiten. Wenn man z. B. auch Bildfragen stellen möchte. Ollama Wer neugierig ist, wie KI mit visuellen Inhalten umgehen kann, nicht nur mit Text.
llama3.2-vision Größen wie 11B und 90B Ollama Modell mit Bildverarbeitung (vision-Komponente) plus Text. Ollama Wer was ausprobieren will mit Bildern und Text gemischt, z. B. Bildbeschreibungen etc.
qwen2.5 Varianten von klein bis groß (z. B. bis ~30-70B) Ollama+1 Sehr vielseitig, unterstützt viele Sprachen, gute Leistung bei verschiedenen Aufgaben. Ollama+1 Wer breiter arbeiten will (mehrsprachig, verschiedenartige Aufgaben).
mistral-small / Mistral 7B kleinere Versionen, etwa ~7B Parameter etc. Ollama+2Ollama+2 Sehr gute Einsteigermodelle: relativ wenig Ressourcen nötig, aber trotzdem brauchbare Qualität. Ollama+1 Wer mit beschränkter Hardware arbeitet (z. B. kein High-End-GPU) und einfach schauen will, was machbar ist.

* Größenangaben in „b“ („Billion Params“ = Milliarden Parameter) sind ein Maß für Komplexität und Anforderungen; je mehr Parameter, desto mehr Rechenleistung und Speicher nötig.


Worauf Einsteiger beim Modell wählen achten sollten

Damit das Loslegen gut klappt, hier ein paar Tipps, worauf man beim Auswählen eines Modells schauen sollte:

  1. Hardware / GPU / Arbeitsspeicher
    Wenn dein PC keine starke Grafikkarte hat, dann lieber kleinere Modelle wählen (z. B. unter 10b; oder Modelle, die speziell als „klein“ oder „compact“ bezeichnet sind).

  2. Text- vs. Vision-Modelle
    Möchtest du nur mit Text arbeiten oder willst du Bilder/Grafiken einbinden? Wenn letzteres: Modelle, die „vision“ / „multimodal“ im Namen haben, bieten diese Funktionalität – brauchen jedoch mehr Leistung.

  3. Mehrere Größen ausprobieren
    Viele Modelle gibt es in verschiedenen Größen: z. B. „klein“ / „mittel“ / „groß“. Kleinere Versionen sind schneller, brauchen weniger Platz, liefern aber oft weniger Schärfe / Detailgenauigkeit. Langfristig ist Qualität wichtig.

  4. Aktualität & Community-Feedback
    Modelle, die „neu“ sind oder viel „Pulls“ (also viele Nutzer) haben, sind oft stabiler und besser dokumentiert. Ollama zeigt an, wie oft ein Modell heruntergeladen wurde (Pulls) und wann es zuletzt aktualisiert wurde. Ollama

  5. Einsatzgebiet
    – Willst du Texte generieren, Geschichten, E-Mails etc.? → Textmodelle reichen aus.
    – Willst du programmieren, Code verstehen? → Code-oder spezialisierte Modelle (z.B. „coder“ Versionen) sind geeigneter.
    – Multimodale Aufgaben (z.B. Bilder + Text) brauchen Vision-Modelle.


Drei Modelle, mit denen Einsteiger gut starten können

Hier sind drei konkrete Tipps, wie man sich “hocharbeiten” kann – vom einfachen, schnellen Einstieg bis zu mehr Leistung, wenn der Rechner mitspielt.

Stufe Modell Warum dieser Schritt? Was brauchst du ungefähr an Hardware?
Stufe 1 – schneller Einstieg gemma3:1b Sehr klein, lädt blitzschnell, reagiert fast direkt. Ideal, um Grundprinzipien von Ollama & Prompts auszutesten, ohne Wartezeiten. Ideal zum Testen. Ein normaler Windows-Laptop oder -PC mit 16 GB RAM. Dedizierte GPU nicht notwendig.
Stufe 2 – mehr Qualität, moderate Anforderungen gemma3:4b Sichtbar bessere Antworten als 1b, immer noch relativ schnell; gute Balance zwischen Leistung und Hardwarebedarf. Klarer Tipp! Wer 16 GB RAM hat und idealerweise eine stärkere GPU oder zumindest eine gute integrierte Grafikkarte. Ladezeit und Reaktionszeit werden etwas spürbarer (einige Sekunden), aber noch komfortabel.
Stufe 3 – Leistung und Komfort gemma3:12 Wenn 4b flüssig läuft, bietet 12b deutlich mehr Details, bessere Formulierungen, längere Kontextfenster etc.
Starker PC mit ausreichendem Speicher – z. B. 32 GB RAM oder gute GPU. Auch SSD-Platz für das Modell erforderlich.
Alternative / Quervergleich llama3:1.8b  Diese Variante von Llama3 ist größer und leistungsfähiger als die kleineren Gemma-Modelle, insbesondere bei Nuancen, Formulierungen und Vielseitigkeit. Gut, um zu sehen, wie sich verschiedene Modellfamilien unterscheiden.
Klarer Tipp!
Ähnlichere Anforderungen wie für gemma3:4b – je nachdem, wie optimiert/quantisiert das Modell ist; etwas mehr RAM und schneller Speicher - wie immer - vorteilhaft.

Tipps, wie man zwischen den Stufen wechselt

 


Hier geht es weiter