Applicay Logo Applicay Software Development

Ollama Setup Guide

Ollama-Einrichtungsanleitung

Run AI models privately on your Mac - no API key, no cloud, no cost. Three steps and you're done.

KI-Modelle privat auf deinem Mac ausführen - kein API-Schlüssel, keine Cloud, keine Kosten. Drei Schritte und du bist fertig.

1

Install Ollama

Ollama installieren

Option A: GUI Installer (Recommended)

Option A: Grafik-Installer (Empfohlen)

  1. 1. Open ollama.com and click Download for macOS.
  2. 2. Open the downloaded file (ZIP or DMG) - this creates Ollama.app.
  3. 3. Drag Ollama.app to your Applications folder.
  4. 4. Launch Ollama once from your Applications folder. Confirm the macOS security prompt if it appears.
  1. 1. Öffne ollama.com und klicke auf Download for macOS.
  2. 2. Öffne die heruntergeladene Datei (ZIP oder DMG) - es entsteht Ollama.app.
  3. 3. Ziehe Ollama.app in den Ordner Programme (Applications).
  4. 4. Starte Ollama einmal aus dem Programme-Ordner. Bestätige die macOS-Sicherheitsabfrage, falls sie erscheint.

Option B: Terminal (One-Liner)

Option B: Terminal (Einzeiler)

Open Terminal (search for it via Spotlight) and run:

Öffne das Terminal (über Spotlight suchen) und führe aus:

curl -fsSL https://ollama.com/install.sh | sh

Enter your macOS password when prompted. Verify the install with ollama --version.

Gib dein macOS-Passwort ein, wenn du dazu aufgefordert wirst. Prüfe die Installation mit ollama --version.

2

Download a Model

Ein Modell (LLM) laden

Open Terminal and run the following command. On the first run, Ollama automatically downloads the model (this may take a few minutes depending on your internet speed):

Öffne das Terminal und führe den folgenden Befehl aus. Beim ersten Start lädt Ollama das Modell automatisch herunter (dies kann je nach Internetgeschwindigkeit einige Minuten dauern):

ollama run translategemma:4b

After download, a chat prompt appears - you can test the model right there. Press Ctrl+C or close the window to exit.

Nach dem Download erscheint ein Chat-Prompt - du kannst das Modell direkt testen. Drücke Strg+C oder schließe das Fenster zum Beenden.

Recommended models for Ogma:

Empfohlene Modelle für Ogma:

Model Modell RAM Best for Am besten für
translategemma:4b 8 GB Translation - great starting point Übersetzung - guter Einstieg
translategemma:12b 16 GB Higher quality (needs 16 GB RAM) Bessere Qualität (braucht 16 GB RAM)
3

Start the Ollama Server

Den Ollama-Server starten

Ogma communicates with Ollama through a local server. Start it with:

Ogma kommuniziert mit Ollama über einen lokalen Server. Starte ihn mit:

ollama serve
Keep this Terminal window open while using Ogma. Closing it stops the Ollama server.
Lass dieses Terminal-Fenster offen während du Ogma verwendest. Schließen beendet den Ollama-Server.
Tip: For beginners, simply running ollama run translategemma:4b automatically starts the server in the background - you don't need a separate ollama serve command.
Tipp: Für Einsteiger: Einfach ollama run translategemma:4b ausführen - das startet den Server automatisch im Hintergrund, kein separates ollama serve nötig.

Connect to Ogma

Mit Ogma verbinden

In Ogma, go to Settings → Local LLM and enter the server URL:

In Ogma unter Einstellungen → Lokales LLM die Server-URL eingeben:

http://localhost:11434/v1

Select the model name you downloaded (e.g. translategemma:4b). No API key required. See Manual §2 - Setting Up LLMs for more details.

Wähle den heruntergeladenen Modellnamen (z.B. translategemma:4b). Kein API-Schlüssel erforderlich. Weitere Details im Handbuch §2 - LLMs einrichten.