What is an LLM?
Was ist ein LLM?
A Large Language Model (LLM) is an AI trained on enormous amounts of text. It has learned to predict which words follow each other, enabling it to produce fluent, contextual responses. For users, it often feels like the AI truly understands the question - whether or not that's actually happening is a topic of ongoing debate.
Unlike traditional word-by-word translation dictionaries, an LLM understands the full context of your text - not just individual words but entire sentences and paragraphs. This leads to dramatically better translations, especially for idiomatic language, complex sentence structures, and domain-specific text.
There are thousands of LLMs with different specializations. Some are small enough to run locally on your Mac; others are massive models running on cloud servers. Ogma supports all four main deployment approaches.
Ein Large Language Model (LLM) ist eine KI, die mit sehr vielen Daten trainiert wurde und dadurch berechnen kann, welche Wörter mit hoher Wahrscheinlichkeit sinnvoll aufeinanderfolgen. Für den Anwender wirkt das oft, als ob die KI die Frage wirklich versteht. Ob ein LLM intelligent ist oder nicht - das ist Gegenstand vieler aktueller Diskussionen.
Anders als herkömmliche Wort-für-Wort-Wörterbücher kennt ein LLM den vollen Kontext deines Textes - nicht nur einzelne Worte, sondern ganze Sätze und Abschnitte. Dadurch werden Übersetzungen deutlich besser, besonders bei idiomatischer Sprache, komplexen Satzstrukturen und fachspezifischen Texten.
Es gibt tausende LLMs mit unterschiedlichen Spezialisierungen. Einige sind klein genug, um lokal auf deinem Mac zu laufen; andere sind riesige Modelle auf Cloud-Servern. Ogma unterstützt alle vier Hauptansätze.
Four Backends at a Glance
Vier Backends im Überblick
Apple Intelligence
Apple Intelligence
- Zero setup - built in
- Fully private, fully local
- Free
- Lower translation quality
- Kein Setup - eingebaut
- Vollständig privat, vollständig lokal
- Kostenlos
- Geringere Übersetzungsqualität
Built-in Model
Integriertes Modell
- Fully private, on-device
- Better quality & faster than Apple Intelligence
- Free (no API key)
- One-time download required
- Vollständig privat, lokal
- Bessere Qualität & schneller als Apple Intelligence
- Kostenlos (kein API-Schlüssel)
- Einmaliger Download erforderlich
Local Server
Lokaler Server
- Fully private, on-device
- Maximum flexibility - any model
- Free (no API key)
- Setup required; needs 8 GB+ RAM
- Vollständig privat, lokal
- Maximale Flexibilität - beliebige Modelle
- Kostenlos (kein API-Schlüssel)
- Einrichtung nötig; braucht 8 GB+ RAM
Cloud API
Cloud-API
- Highest translation quality
- Large, powerful models
- Text leaves your Mac
- May cost money
- Höchste Übersetzungsqualität
- Große, leistungsstarke Modelle
- Text verlässt deinen Mac
- Kann Kosten verursachen
Apple Intelligence
Apple Intelligence
Built into macOS 26+
In macOS 26+ eingebaut
Every Mac running macOS 26 includes Apple Intelligence, Apple's on-device AI. Enable it in System Settings → Apple Intelligence & Siri. Once active, Ogma can use it with no API key or additional setup.
Advantage: Zero setup, instant, fully private - your text never leaves your Mac. Free to use.
Disadvantage: Apple Intelligence is a compact model optimized for speed and privacy, not translation quality. Results are noticeably weaker compared to larger local or cloud models. Best for quick, informal translations.
Jeder Mac mit macOS 26 enthält Apple Intelligence, Apples integrierte KI. Aktiviere sie unter Systemeinstellungen → Apple Intelligence & Siri. Sobald aktiv, kann Ogma sie ohne API-Schlüssel oder zusätzliche Einrichtung verwenden.
Vorteil: Kein Setup, sofort verfügbar, vollständig privat - dein Text verlässt deinen Mac nicht. Kostenlos.
Nachteil: Apple Intelligence ist ein kompaktes Modell, optimiert für Geschwindigkeit und Datenschutz, nicht für Übersetzungsqualität. Die Ergebnisse sind im Vergleich zu größeren lokalen oder Cloud-Modellen deutlich schlechter. Am besten für schnelle, informelle Übersetzungen.
Built-in Model
Integriertes Modell
Better quality than Apple Intelligence - one-time download
Bessere Qualität als Apple Intelligence - einmaliger Download
Ogma includes support for translategemma:4b, a translation-optimized model that runs entirely on your Mac. Unlike Apple Intelligence, this model needs to be downloaded once inside the app - after that it works offline with no internet connection required.
Advantage: Noticeably better translation quality and faster than Apple Intelligence, while remaining fully private and local. No API key, no subscription, no data leaves your Mac.
Disadvantage: Requires a one-time download (around 3 GB). Needs at least 8 GB RAM.
Ogma enthält Unterstützung für translategemma:4b, ein übersetzungsoptimiertes Modell, das vollständig auf deinem Mac läuft. Anders als Apple Intelligence muss dieses Modell einmalig in der App heruntergeladen werden - danach funktioniert es offline ohne Internetverbindung.
Vorteil: Deutlich bessere Übersetzungsqualität und schneller als Apple Intelligence, bleibt dabei vollständig privat und lokal. Kein API-Schlüssel, kein Abo, keine Daten verlassen deinen Mac.
Nachteil: Erfordert einen einmaligen Download (ca. 3 GB). Benötigt mindestens 8 GB RAM.
Models via a Local Server
Modelle über einen lokalen Server
Maximum flexibility - any model, fully private
Maximale Flexibilität - beliebige Modelle, vollständig privat
Advantage: Full flexibility - you can use any model available on Ollama or HuggingFace, all running locally and privately on your Mac. No API key required.
Disadvantage: Requires setup - you need to install and configure a local server such as Ollama or LM Studio. See the Ollama setup guide for step-by-step instructions.
Ollama starts a local server at http://localhost:11434/v1 that Ogma connects to. All processing stays on your machine.
Vorteil: Volle Flexibilität - du kannst jedes Modell nutzen, das bei Ollama oder HuggingFace verfügbar ist, alles lokal und privat auf deinem Mac. Kein API-Schlüssel erforderlich.
Nachteil: Erfordert Einrichtung - du musst einen lokalen Server wie Ollama oder LM Studio installieren und konfigurieren. Schau in die Ollama-Einrichtungsanleitung für Schritt-für-Schritt-Anweisungen.
Ollama startet einen lokalen Server unter http://localhost:11434/v1, mit dem Ogma sich verbindet. Die gesamte Verarbeitung bleibt auf deinem Gerät.
| Model Modell | RAM | Best for Am besten für | |
|---|---|---|---|
| HY-MT1.5-1.8B | 8 GB | 33 languages + 5 dialects - especially small and fast | 33 Sprachen + 5 Dialekte - besonders klein und schnell |
| gemma4:e2b | 16 GB | Higher quality translation - needs 16 GB RAM | Bessere Übersetzungsqualität - braucht 16 GB RAM |
| translategemma:12b | 16 GB | Optimized for translation - slower but better quality than translategemma:4b | Für Übersetzungen optimiert - langsamer, aber bessere Qualität als translategemma:4b |
New models are released constantly - experiment to find what works best for your use case.
Neue Modelle erscheinen ständig - probiere einfach aus, was für deinen Anwendungsfall am besten funktioniert.
Alternative: LM Studio works similarly to Ollama and is also highly recommended. It offers a polished graphical interface for downloading and managing models, making it particularly beginner-friendly. Like Ollama, it runs a local server that Ogma can connect to - just set the server URL to http://localhost:1234/v1 in Ogma Settings.
Alternative: LM Studio funktioniert ähnlich wie Ollama und ist ebenfalls sehr empfehlenswert. Es bietet eine übersichtliche grafische Oberfläche zum Herunterladen und Verwalten von Modellen - besonders einsteigerfreundlich. Wie Ollama startet es einen lokalen Server, mit dem Ogma sich verbindet - einfach http://localhost:1234/v1 als Server-URL in den Ogma-Einstellungen eingeben.
Cloud Models
Cloud-Modelle
Highest quality - text leaves your Mac
Höchste Qualität - Text verlässt deinen Mac
Cloud models run on powerful servers and offer the best translation quality available. The trade-off: your text is sent to the provider's servers. If translation quality is your top priority and privacy is secondary, cloud models are the right choice.
Cloud-Modelle laufen auf leistungsstarken Servern und bieten die beste verfügbare Übersetzungsqualität. Der Kompromiss: Dein Text wird an die Server des Anbieters gesendet. Wenn Übersetzungsqualität oberste Priorität hat und Datenschutz zweitrangig ist, sind Cloud-Modelle die richtige Wahl.
Free Cloud Models
Kostenlose Cloud-Modelle
Google Gemini API
Google's AI Studio offers a free tier for certain Gemini models (e.g. Flash, parts of 2.5 Pro). Rate limits apply but are typically sufficient for personal translation use.
Googles AI Studio bietet einen kostenlosen Tarif für bestimmte Gemini-Modelle (z.B. Flash, Teile von 2.5 Pro). Rate-Limits gelten, reichen aber für persönliche Übersetzungen meist aus.
Free-LLM
free-llm.com lists various free LLM APIs that are OpenAI-compatible and work with Ogma.
free-llm.com listet verschiedene kostenlose LLM-APIs, die OpenAI-kompatibel sind und mit Ogma funktionieren.
OpenRouter
OpenRouter offers several free models, e.g. StepFun: Step 3.5 Flash (stepfun/step-3.5-flash:free) or Google: Gemma 3 12B (google/gemma-3-12b-it:free). The models are usually labeled with (free). Simply try out which ones work. Some models explicitly note that the transmitted data will be used for AI training, e.g. the Nemotron models.
OpenRouter bietet mehrere kostenlose Modelle an, z.B. StepFun: Step 3.5 Flash (stepfun/step-3.5-flash:free) oder Google: Gemma 3 12B (google/gemma-3-12b-it:free). Die Modelle werden meistens mit (free) gekennzeichnet. Probiere einfach aus, welche funktionieren. Bei einigen Modellen wird explizit darauf hingewiesen, dass die übertragenen Daten für das Training von KIs verwendet weden, z.B. bei den Nemotron Modellen.
Premium Cloud Models
Premium Cloud-Modelle
Ogma supports any OpenAI-compatible cloud API - you can connect directly to any provider using their API URL and key. OpenRouter is a convenient single gateway to hundreds of models. Register once and access all of them - much easier than creating accounts with every provider individually.
Note: Premium models cost money – you will normally need to set up a credit balance. Billing is based on tokens consumed (Rule of thumb: 1 token ≈ 0.75 words). However, you don't need very many tokens for translations — for example, translating the book "Harry Potter and the Philosopher's Stone" with DeepSeek V3.2 costs approximately €0.10. With one of the most expensive models, Claude Sonnet 4.6, the translation would cost around €2.00.
Ogma unterstützt jede OpenAI-kompatible Cloud-API - du kannst dich direkt mit jedem Anbieter verbinden, der eine solche API anbietet. OpenRouter ist ein praktischer Zugang zu Hunderten von Modellen. Einmal registrieren und alle nutzen - viel einfacher als bei jedem Anbieter einzeln ein Konto zu erstellen.
Hinweis: Premium-Modelle kosten Geld - normalerweise musst du ein Guthaben einrichten. Die Abrechnung erfolgt nach verbrauchten Token (Faustregel: 1 Token 0,75 Worte). Allerdings braucht man nicht sehr viele Token für Übersetzungen, z.B. kostet eine Übersetzung des Buchs "Harry Potter and the Philosopher’s Stone" mit Deepseek V 3.2 ungefähr € 0,10. Mit einem der teuersten Modelle, Claude Sonnet 4.6, würde die Übersetzung ca. € 2,00 kosten.
Mistral Large 3
French AI provider specializing in large language models. Very good translation quality.
Französischer KI-Anbieter, spezialisiert auf große Sprachmodelle. Sehr gute Übersetzungsqualität.
Deepseek-v3.2
Chinese AI provider. Outstanding translation quality at very competitive prices.
Chinesischer KI-Anbieter. Hervorragende Übersetzungsqualität zu sehr günstigen Preisen.
Claude Sonnet 4.6
By Anthropic (US). Exceptional translation quality, frequently ranked #1 in translation benchmarks. Also the most expensive option.
Von Anthropic (USA). Herausragende Übersetzungsqualität, wird in Vergleichsstudien oft als das beste Modell für Sprachübersetzungen genannt. Auch das teuerste Modell.
Up to 6 LLMs - Compare Side by Side
Bis zu 6 LLMs - direkt vergleichen
Configure Apple Intelligence, a built-in model, a local server model, and up to three cloud APIs. Switch between them with a click, or use Multi-Translation mode to run them all at once and compare quality directly.
Apple Intelligence, ein integriertes Modell, ein lokales Server-Modell und bis zu drei Cloud-APIs konfigurieren. Per Klick zwischen ihnen wechseln oder den Mehrfachübersetzungsmodus nutzen, um alle gleichzeitig auszuführen und die Qualität direkt zu vergleichen.