Applicay Logo Applicay Software Development

Choosing the Right LLM

Das richtige LLM wählen

Ogma supports four LLM backends - each with different trade-offs between privacy, quality, and cost. Here's how to choose.

Ogma unterstützt vier LLM-Backends - jedes mit unterschiedlichen Abwägungen zwischen Datenschutz, Qualität und Kosten. So triffst du die richtige Wahl.

What is an LLM?

Was ist ein LLM?

A Large Language Model (LLM) is an AI trained on enormous amounts of text. It has learned to predict which words follow each other, enabling it to produce fluent, contextual responses. For users, it often feels like the AI truly understands the question - whether or not that's actually happening is a topic of ongoing debate.

Unlike traditional word-by-word translation dictionaries, an LLM understands the full context of your text - not just individual words but entire sentences and paragraphs. This leads to dramatically better translations, especially for idiomatic language, complex sentence structures, and domain-specific text.

There are thousands of LLMs with different specializations. Some are small enough to run locally on your Mac; others are massive models running on cloud servers. Ogma supports all four main deployment approaches.

Ein Large Language Model (LLM) ist eine KI, die mit sehr vielen Daten trainiert wurde und dadurch berechnen kann, welche Wörter mit hoher Wahrscheinlichkeit sinnvoll aufeinanderfolgen. Für den Anwender wirkt das oft, als ob die KI die Frage wirklich versteht. Ob ein LLM intelligent ist oder nicht - das ist Gegenstand vieler aktueller Diskussionen.

Anders als herkömmliche Wort-für-Wort-Wörterbücher kennt ein LLM den vollen Kontext deines Textes - nicht nur einzelne Worte, sondern ganze Sätze und Abschnitte. Dadurch werden Übersetzungen deutlich besser, besonders bei idiomatischer Sprache, komplexen Satzstrukturen und fachspezifischen Texten.

Es gibt tausende LLMs mit unterschiedlichen Spezialisierungen. Einige sind klein genug, um lokal auf deinem Mac zu laufen; andere sind riesige Modelle auf Cloud-Servern. Ogma unterstützt alle vier Hauptansätze.

Four Backends at a Glance

Vier Backends im Überblick

Apple Intelligence

Apple Intelligence

  • Zero setup - built in
  • Fully private, fully local
  • Free
  • Lower translation quality
  • Kein Setup - eingebaut
  • Vollständig privat, vollständig lokal
  • Kostenlos
  • Geringere Übersetzungsqualität

Built-in Model

Integriertes Modell

  • Fully private, on-device
  • Better quality & faster than Apple Intelligence
  • Free (no API key)
  • One-time download required
  • Vollständig privat, lokal
  • Bessere Qualität & schneller als Apple Intelligence
  • Kostenlos (kein API-Schlüssel)
  • Einmaliger Download erforderlich

Local Server

Lokaler Server

  • Fully private, on-device
  • Maximum flexibility - any model
  • Free (no API key)
  • Setup required; needs 8 GB+ RAM
  • Vollständig privat, lokal
  • Maximale Flexibilität - beliebige Modelle
  • Kostenlos (kein API-Schlüssel)
  • Einrichtung nötig; braucht 8 GB+ RAM

Cloud API

Cloud-API

  • Highest translation quality
  • Large, powerful models
  • Text leaves your Mac
  • May cost money
  • Höchste Übersetzungsqualität
  • Große, leistungsstarke Modelle
  • Text verlässt deinen Mac
  • Kann Kosten verursachen

Apple Intelligence

Apple Intelligence

Built into macOS 26+

In macOS 26+ eingebaut

Every Mac running macOS 26 includes Apple Intelligence, Apple's on-device AI. Enable it in System Settings → Apple Intelligence & Siri. Once active, Ogma can use it with no API key or additional setup.

Advantage: Zero setup, instant, fully private - your text never leaves your Mac. Free to use.

Disadvantage: Apple Intelligence is a compact model optimized for speed and privacy, not translation quality. Results are noticeably weaker compared to larger local or cloud models. Best for quick, informal translations.

Jeder Mac mit macOS 26 enthält Apple Intelligence, Apples integrierte KI. Aktiviere sie unter Systemeinstellungen → Apple Intelligence & Siri. Sobald aktiv, kann Ogma sie ohne API-Schlüssel oder zusätzliche Einrichtung verwenden.

Vorteil: Kein Setup, sofort verfügbar, vollständig privat - dein Text verlässt deinen Mac nicht. Kostenlos.

Nachteil: Apple Intelligence ist ein kompaktes Modell, optimiert für Geschwindigkeit und Datenschutz, nicht für Übersetzungsqualität. Die Ergebnisse sind im Vergleich zu größeren lokalen oder Cloud-Modellen deutlich schlechter. Am besten für schnelle, informelle Übersetzungen.

Built-in Model

Integriertes Modell

Better quality than Apple Intelligence - one-time download

Bessere Qualität als Apple Intelligence - einmaliger Download

Ogma includes support for translategemma:4b, a translation-optimized model that runs entirely on your Mac. Unlike Apple Intelligence, this model needs to be downloaded once inside the app - after that it works offline with no internet connection required.

Advantage: Noticeably better translation quality and faster than Apple Intelligence, while remaining fully private and local. No API key, no subscription, no data leaves your Mac.

Disadvantage: Requires a one-time download (around 3 GB). Needs at least 8 GB RAM.

Ogma enthält Unterstützung für translategemma:4b, ein übersetzungsoptimiertes Modell, das vollständig auf deinem Mac läuft. Anders als Apple Intelligence muss dieses Modell einmalig in der App heruntergeladen werden - danach funktioniert es offline ohne Internetverbindung.

Vorteil: Deutlich bessere Übersetzungsqualität und schneller als Apple Intelligence, bleibt dabei vollständig privat und lokal. Kein API-Schlüssel, kein Abo, keine Daten verlassen deinen Mac.

Nachteil: Erfordert einen einmaligen Download (ca. 3 GB). Benötigt mindestens 8 GB RAM.

Models via a Local Server

Modelle über einen lokalen Server

Maximum flexibility - any model, fully private

Maximale Flexibilität - beliebige Modelle, vollständig privat

Advantage: Full flexibility - you can use any model available on Ollama or HuggingFace, all running locally and privately on your Mac. No API key required.

Disadvantage: Requires setup - you need to install and configure a local server such as Ollama or LM Studio. See the Ollama setup guide for step-by-step instructions.

Ollama starts a local server at http://localhost:11434/v1 that Ogma connects to. All processing stays on your machine.

Vorteil: Volle Flexibilität - du kannst jedes Modell nutzen, das bei Ollama oder HuggingFace verfügbar ist, alles lokal und privat auf deinem Mac. Kein API-Schlüssel erforderlich.

Nachteil: Erfordert Einrichtung - du musst einen lokalen Server wie Ollama oder LM Studio installieren und konfigurieren. Schau in die Ollama-Einrichtungsanleitung für Schritt-für-Schritt-Anweisungen.

Ollama startet einen lokalen Server unter http://localhost:11434/v1, mit dem Ogma sich verbindet. Die gesamte Verarbeitung bleibt auf deinem Gerät.

Model Modell RAM Best for Am besten für
HY-MT1.5-1.8B 8 GB 33 languages + 5 dialects - especially small and fast 33 Sprachen + 5 Dialekte - besonders klein und schnell
gemma4:e2b 16 GB Higher quality translation - needs 16 GB RAM Bessere Übersetzungsqualität - braucht 16 GB RAM
translategemma:12b 16 GB Optimized for translation - slower but better quality than translategemma:4b Für Übersetzungen optimiert - langsamer, aber bessere Qualität als translategemma:4b

New models are released constantly - experiment to find what works best for your use case.

Neue Modelle erscheinen ständig - probiere einfach aus, was für deinen Anwendungsfall am besten funktioniert.

Alternative: LM Studio works similarly to Ollama and is also highly recommended. It offers a polished graphical interface for downloading and managing models, making it particularly beginner-friendly. Like Ollama, it runs a local server that Ogma can connect to - just set the server URL to http://localhost:1234/v1 in Ogma Settings.

Alternative: LM Studio funktioniert ähnlich wie Ollama und ist ebenfalls sehr empfehlenswert. Es bietet eine übersichtliche grafische Oberfläche zum Herunterladen und Verwalten von Modellen - besonders einsteigerfreundlich. Wie Ollama startet es einen lokalen Server, mit dem Ogma sich verbindet - einfach http://localhost:1234/v1 als Server-URL in den Ogma-Einstellungen eingeben.

Cloud Models

Cloud-Modelle

Highest quality - text leaves your Mac

Höchste Qualität - Text verlässt deinen Mac

Cloud models run on powerful servers and offer the best translation quality available. The trade-off: your text is sent to the provider's servers. If translation quality is your top priority and privacy is secondary, cloud models are the right choice.

Cloud-Modelle laufen auf leistungsstarken Servern und bieten die beste verfügbare Übersetzungsqualität. Der Kompromiss: Dein Text wird an die Server des Anbieters gesendet. Wenn Übersetzungsqualität oberste Priorität hat und Datenschutz zweitrangig ist, sind Cloud-Modelle die richtige Wahl.

Free Cloud Models

Kostenlose Cloud-Modelle

Google Gemini API

Google's AI Studio offers a free tier for certain Gemini models (e.g. Flash, parts of 2.5 Pro). Rate limits apply but are typically sufficient for personal translation use.

Googles AI Studio bietet einen kostenlosen Tarif für bestimmte Gemini-Modelle (z.B. Flash, Teile von 2.5 Pro). Rate-Limits gelten, reichen aber für persönliche Übersetzungen meist aus.

Free-LLM

free-llm.com lists various free LLM APIs that are OpenAI-compatible and work with Ogma.

free-llm.com listet verschiedene kostenlose LLM-APIs, die OpenAI-kompatibel sind und mit Ogma funktionieren.

OpenRouter

OpenRouter offers several free models, e.g. StepFun: Step 3.5 Flash (stepfun/step-3.5-flash:free) or Google: Gemma 3 12B (google/gemma-3-12b-it:free). The models are usually labeled with (free). Simply try out which ones work. Some models explicitly note that the transmitted data will be used for AI training, e.g. the Nemotron models.

OpenRouter bietet mehrere kostenlose Modelle an, z.B. StepFun: Step 3.5 Flash (stepfun/step-3.5-flash:free) oder Google: Gemma 3 12B (google/gemma-3-12b-it:free). Die Modelle werden meistens mit (free) gekennzeichnet. Probiere einfach aus, welche funktionieren. Bei einigen Modellen wird explizit darauf hingewiesen, dass die übertragenen Daten für das Training von KIs verwendet weden, z.B. bei den Nemotron Modellen.

Premium Cloud Models

Premium Cloud-Modelle

Ogma supports any OpenAI-compatible cloud API - you can connect directly to any provider using their API URL and key. OpenRouter is a convenient single gateway to hundreds of models. Register once and access all of them - much easier than creating accounts with every provider individually.

Note: Premium models cost money – you will normally need to set up a credit balance. Billing is based on tokens consumed (Rule of thumb: 1 token ≈ 0.75 words). However, you don't need very many tokens for translations — for example, translating the book "Harry Potter and the Philosopher's Stone" with DeepSeek V3.2 costs approximately €0.10. With one of the most expensive models, Claude Sonnet 4.6, the translation would cost around €2.00.

Ogma unterstützt jede OpenAI-kompatible Cloud-API - du kannst dich direkt mit jedem Anbieter verbinden, der eine solche API anbietet. OpenRouter ist ein praktischer Zugang zu Hunderten von Modellen. Einmal registrieren und alle nutzen - viel einfacher als bei jedem Anbieter einzeln ein Konto zu erstellen.

Hinweis: Premium-Modelle kosten Geld - normalerweise musst du ein Guthaben einrichten. Die Abrechnung erfolgt nach verbrauchten Token (Faustregel: 1 Token 0,75 Worte). Allerdings braucht man nicht sehr viele Token für Übersetzungen, z.B. kostet eine Übersetzung des Buchs "Harry Potter and the Philosopher’s Stone" mit Deepseek V 3.2 ungefähr € 0,10. Mit einem der teuersten Modelle, Claude Sonnet 4.6, würde die Übersetzung ca. € 2,00 kosten.

Mistral Large 3

French AI provider specializing in large language models. Very good translation quality.

Französischer KI-Anbieter, spezialisiert auf große Sprachmodelle. Sehr gute Übersetzungsqualität.

Deepseek-v3.2

Chinese AI provider. Outstanding translation quality at very competitive prices.

Chinesischer KI-Anbieter. Hervorragende Übersetzungsqualität zu sehr günstigen Preisen.

Claude Sonnet 4.6

By Anthropic (US). Exceptional translation quality, frequently ranked #1 in translation benchmarks. Also the most expensive option.

Von Anthropic (USA). Herausragende Übersetzungsqualität, wird in Vergleichsstudien oft als das beste Modell für Sprachübersetzungen genannt. Auch das teuerste Modell.

Up to 6 LLMs - Compare Side by Side

Bis zu 6 LLMs - direkt vergleichen

Configure Apple Intelligence, a built-in model, a local server model, and up to three cloud APIs. Switch between them with a click, or use Multi-Translation mode to run them all at once and compare quality directly.

Apple Intelligence, ein integriertes Modell, ein lokales Server-Modell und bis zu drei Cloud-APIs konfigurieren. Per Klick zwischen ihnen wechseln oder den Mehrfachübersetzungsmodus nutzen, um alle gleichzeitig auszuführen und die Qualität direkt zu vergleichen.

Switch LLMs