Install Ollama
Ollama installieren
Option A: GUI Installer (Recommended)
Option A: Grafik-Installer (Empfohlen)
- 1. Open ollama.com and click Download for macOS.
- 2. Open the downloaded file (ZIP or DMG) - this creates Ollama.app.
- 3. Drag Ollama.app to your Applications folder.
- 4. Launch Ollama once from your Applications folder. Confirm the macOS security prompt if it appears.
- 1. Öffne ollama.com und klicke auf Download for macOS.
- 2. Öffne die heruntergeladene Datei (ZIP oder DMG) - es entsteht Ollama.app.
- 3. Ziehe Ollama.app in den Ordner Programme (Applications).
- 4. Starte Ollama einmal aus dem Programme-Ordner. Bestätige die macOS-Sicherheitsabfrage, falls sie erscheint.
Option B: Terminal (One-Liner)
Option B: Terminal (Einzeiler)
Open Terminal (search for it via Spotlight) and run:
Öffne das Terminal (über Spotlight suchen) und führe aus:
curl -fsSL https://ollama.com/install.sh | sh
Enter your macOS password when prompted. Verify the install with ollama --version.
Gib dein macOS-Passwort ein, wenn du dazu aufgefordert wirst. Prüfe die Installation mit ollama --version.
Download a Model
Ein Modell (LLM) laden
Open Terminal and run the following command. On the first run, Ollama automatically downloads the model (this may take a few minutes depending on your internet speed):
Öffne das Terminal und führe den folgenden Befehl aus. Beim ersten Start lädt Ollama das Modell automatisch herunter (dies kann je nach Internetgeschwindigkeit einige Minuten dauern):
ollama run translategemma:4b
After download, a chat prompt appears - you can test the model right there. Press Ctrl+C or close the window to exit.
Nach dem Download erscheint ein Chat-Prompt - du kannst das Modell direkt testen. Drücke Strg+C oder schließe das Fenster zum Beenden.
Recommended models for Ogma:
Empfohlene Modelle für Ogma:
| Model Modell | RAM | Best for Am besten für | |
|---|---|---|---|
| translategemma:4b | 8 GB | Translation - great starting point | Übersetzung - guter Einstieg |
| translategemma:12b | 16 GB | Higher quality (needs 16 GB RAM) | Bessere Qualität (braucht 16 GB RAM) |
Start the Ollama Server
Den Ollama-Server starten
Ogma communicates with Ollama through a local server. Start it with:
Ogma kommuniziert mit Ollama über einen lokalen Server. Starte ihn mit:
ollama serve
ollama run translategemma:4b automatically starts the server in the background - you don't need a separate ollama serve command.
ollama run translategemma:4b ausführen - das startet den Server automatisch im Hintergrund, kein separates ollama serve nötig.
Connect to Ogma
Mit Ogma verbinden
In Ogma, go to Settings → Local LLM and enter the server URL:
In Ogma unter Einstellungen → Lokales LLM die Server-URL eingeben:
http://localhost:11434/v1
Select the model name you downloaded (e.g. translategemma:4b). No API key required. See Manual §2 - Setting Up LLMs for more details.
Wähle den heruntergeladenen Modellnamen (z.B. translategemma:4b). Kein API-Schlüssel erforderlich. Weitere Details im Handbuch §2 - LLMs einrichten.