Ende 2023 war der Abstand zwischen proprietären KI-Modellen und Open Source LLMs noch deutlich spürbar. ChatGPT und Claude dominierten, die Open-Source-Varianten galten als nützlich, aber klar schwächer. Im April 2026 ist dieser Abstand in vielen Benchmarks verschwunden. GLM-5.1 von Zhipu AI hat GPT-5.4 auf SWE-Bench Pro überholt. DeepSeek V3.2 kostet im API-Betrieb einen Bruchteil von GPT-4o. Und Gemma 4 von Google läuft mit respektabler Geschwindigkeit auf einer einzelnen Consumer-GPU.
Für deutsche Unternehmen bedeutet das: Open Source AI Models sind keine Kompromisslösung mehr. Wer ein Modell selbst betreibt, behält die Kontrolle über seine Daten, erfüllt DSGVO-Anforderungen ohne Umwege und ist unabhängig von den Preisänderungen amerikanischer Cloud-Anbieter. Welche open-source LLMs 2026 wirklich taugen, welches Modell zu welchem Use Case passt, was bei kommerzieller Nutzung gilt und wie der Einstieg aussieht – das steht hier.
Was ist ein Open Source LLM?
Ein Open Source LLM (Large Language Model) ist ein KI-Sprachmodell, dessen Modellgewichte öffentlich zugänglich sind. Im Gegensatz zu proprietären Modellen wie ChatGPT oder Claude kann jeder das Modell herunterladen, auf eigener Hardware betreiben und in eigene Produkte integrieren.
Eine Unterscheidung ist dabei wichtig:
| Begriff | Bedeutung | Beispiele |
|---|---|---|
| Open Weight | Modellgewichte öffentlich, Trainingsdaten oder Code teils geschlossen | Llama 4, DeepSeek V3.2, Gemma 4 |
| Open Source (streng) | Gewichte, Trainingsdaten und Code vollständig offen | BLOOM, frühere Falcon-Versionen |
| Closed Source | Nur API-Zugang, Gewichte nicht öffentlich | GPT-5.x, Claude Opus 4.x |
In der Praxis wird “Open Source LLM” auch für Open-Weight-Modelle verwendet, da der entscheidende Vorteil die frei verfügbaren Gewichte sind. Wer das Modell betreibt, hat vollständige Kontrolle – unabhängig davon, ob auch der Trainingsdatensatz offen liegt.
Open Source vs. Closed Source LLM: Was wirklich zählt
Wer über den Einsatz von KI im Unternehmen nachdenkt, stößt schnell auf die Grundsatzfrage: proprietäres Modell via API oder open-source Modell auf eigener Infrastruktur? Hier ist, was in der Praxis den Unterschied macht:
| Kriterium | Open Source LLM | Closed Source (ChatGPT, Claude) |
|---|---|---|
| Datenschutz / DSGVO | Daten bleiben auf eigenem Server | Daten gehen an US-Anbieter |
| Kontrolle | Vollständige Kontrolle über Modell und Infrastruktur | Abhängig von API-Verfügbarkeit und Preisgestaltung |
| Kostenstruktur | Infrastrukturkosten fix, keine Token-Gebühren | Pro-Token-Abrechnung, skaliert mit Volumen |
| Performance | Top-Modelle ebenbürtig mit proprietären | Leichte Vorteile bei bestimmten Aufgaben |
| Anpassbarkeit | Fine-tuning, RAG, vollständige Kontrolle | Begrenzt (Prompting, teils Fine-tuning via API) |
| Einstiegshürde | GPU-Infrastruktur nötig, mehr technischer Aufwand | Sofort nutzbar per API-Key |
| Vendor Lock-in | Kein Lock-in, Modell gehört dem Unternehmen | Abhängigkeit vom Anbieter |
| Lizenz | Apache 2.0, MIT oder modellspezifisch | Proprietäre Nutzungsbedingungen |
Für Unternehmen mit hohem Datenvolumen oder sensiblen Daten rechnen sich Open Source LLMs schnell: Keine Token-Kosten bedeuten, dass ein einmal aufgesetztes System unabhängig von der Nutzungsfrequenz dieselben Infrastrukturkosten hat. Unser KI ROI Rechner hilft bei dieser Kalkulation für das eigene Unternehmen.
Die besten Open Source LLMs 2026 im Überblick
Zum Stand April 2026 sind dies die relevantesten open-source LLM-Modelle für den Unternehmenseinsatz, sortiert nach Gesamtperformance:
| Modell | Anbieter | Parameter (aktiv) | Lizenz | Kontext | Stärke |
|---|---|---|---|---|---|
| GLM-5.1 | Zhipu AI | 130B | MIT | 128k | Coding, Agentic Tasks |
| Qwen3.5-397B | Alibaba | 397B (22B aktiv) | Apache 2.0 | 128k | Reasoning, Mehrsprachig |
| Gemma 4 27B | 27B | Gemma License | 128k | Consumer-GPU, Effizienz | |
| DeepSeek V3.2 | DeepSeek | 671B (37B aktiv) | MIT | 128k | Coding, Cost-Performance |
| Llama 4 Scout | Meta | 109B (17B aktiv) | Llama 4 License | 10M | Multimodal, Enterprise |
| Kimi K2.5 | Moonshot AI | ~200B | Apache 2.0 | 128k | Reasoning, AIME-Benchmark |
| Mistral Large 2 | Mistral AI | 123B | MRL v0.1 | 128k | EU-Server, DSGVO-nah |
| DeepSeek R1 | DeepSeek | 671B (37B aktiv) | MIT | 128k | Mathematik, Reasoning |
| Qwen3.5-32B | Alibaba | 32B | Apache 2.0 | 32k | Einzelne GPU, vielseitig |
| Phi-4 Mini | Microsoft | 3,8B | MIT | 128k | Edge, ressourcensparend |
Viele dieser Modelle nutzen die Mixture-of-Experts-Architektur (MoE). Hunderte Milliarden Parameter sind vorhanden, aber pro Token wird nur ein kleiner Anteil davon aktiviert. Enorme Gesamtgröße, trotzdem effizient betreibbar.
Top-Modelle im Detail
DeepSeek V3.2 und R1 – das stärkste Preis-Leistungs-Verhältnis
DeepSeek hat mit V3.2 und R1 zwei open-source LLM-Modelle veröffentlicht, die in fast jeder Benchmark-Kategorie mit GPT-5.x konkurrieren. Die MIT-Lizenz erlaubt vollständige kommerzielle Nutzung ohne Einschränkungen.
V3.2 eignet sich für Coding, Dokumentenanalyse und strukturierte Datenextraktion. R1 ist das Reasoning-Modell: bedächtiger, aber bei komplexen mathematischen und analytischen Aufgaben mit o3 vergleichbar. Im API-Betrieb liegt V3.2 auf Benchmark-Scores nahe an GPT-5 Codex.
Llama 4 – Metas offenes Ökosystem
Meta hat mit Llama 4 zwei Modelle veröffentlicht: Scout (109B, MoE) für leistungsstarke allgemeine Aufgaben und Maverick für Cloud-Infrastruktur. Das Kontextfenster von bis zu 10 Millionen Token ist einzigartig unter allen open-source AI models und ermöglicht die Verarbeitung ganzer Dokumentenbestände in einem Durchlauf.
Llama 4 ist de facto multimodal und versteht neben Text auch Bilder. Die Llama-4-Lizenz erlaubt kommerzielle Nutzung mit einer Einschränkung: Bei mehr als 700 Millionen monatlichen aktiven Nutzern ist eine gesonderte Lizenzvereinbarung mit Meta notwendig. Für die große Mehrheit der Unternehmen spielt diese Schwelle keine Rolle.
Qwen3.5 – Alibabas Mehrsprachigkeits-Champion
Qwen3.5 von Alibaba ist 2026 eines der vielseitigsten open-source LLM-Modelle auf dem Markt. Die 397B-Variante mit MoE-Architektur liegt in Reasoning-Benchmarks über GPT-4o, die kleinere 32B-Variante läuft auf einer einzelnen A100-GPU und ist damit auch für mittelständische Infrastrukturen geeignet.
Ein oft übersehener Vorteil: Qwen-Modelle sind von Haus aus mehrsprachig mit starker Performance in Deutsch, Englisch, Chinesisch und 27 weiteren Sprachen. Für internationale Teams oder mehrsprachige Dokumentenverarbeitung ist das ein klares Plus. Die Apache-2.0-Lizenz macht Qwen zu einer der permissivsten Optionen für kommerziellen Einsatz.
Gemma 4 – Googles Consumer-GPU-Champion
Googles Gemma 4 in der 27B-Variante ist das beste open-source Modell für Unternehmen ohne dedizierte GPU-Infrastruktur. Es läuft mit akzeptabler Geschwindigkeit auf einer RTX 4090 oder einem Apple M3 Max – Consumer-Hardware, die in vielen Unternehmen bereits vorhanden ist.
Auf Math- und Coding-Benchmarks schlägt Gemma 4 trotz deutlich kleinerer Parameterzahl Llama 4 Maverick. Für Teams, die schnell und ohne großen Infrastrukturaufwand mit einem leistungsstarken open-source LLM starten wollen, ist Gemma 4 die erste Wahl.
Mistral Large 2 – Europas Open-Source-Antwort
Mistral AI ist ein französisches Unternehmen, und das ist kein Zufall für die Erwähnung an dieser Stelle. Mistral-Modelle können auf europäischen Servern betrieben werden, das Unternehmen unterliegt der DSGVO und betreibt mit Mistral La Plateforme eine eigene europäische API-Infrastruktur.
Für Unternehmen, die DSGVO-Sicherheit ohne eigene GPU-Infrastruktur wollen, ist Mistral die strategisch sauberste Wahl. Die Mistral Reference License erlaubt kommerzielle Nutzung – ab einer bestimmten Unternehmensgröße ist eine Enterprise-Lizenz notwendig, Details direkt bei Mistral anfragen.
Einen ausführlichen Vergleich von Claude, GPT und Gemini für verschiedene Unternehmensbereiche bietet unser Artikel Claude vs. GPT vs. Gemini.
Phi-4 Mini – wenn Ressourcen knapp sind
Microsoft Phi-4 Mini mit 3,8 Milliarden Parametern klingt auf dem Papier bescheiden. In der Praxis ist es das stärkste Modell seiner Größenklasse: Phi-4 Mini übertrifft deutlich größere Modelle auf Reasoning-Benchmarks und läuft auf Hardware, die in jedem modernen Laptop vorhanden ist. Für Edge-Deployments, On-Device-KI oder Szenarien mit sehr begrenzten Ressourcen gibt es unter den open-source AI models keine bessere Wahl.
Welches Open Source LLM für welchen Use Case?
Das stärkste Modell ist nicht immer das richtige. Diese Entscheidungsmatrix zeigt, welche Open-Source-LLM-Modelle für typische Unternehmens-Use-Cases am besten geeignet sind:
| Anwendungsfall | Empfohlenes Modell | Warum |
|---|---|---|
| Dokumentenanalyse & Zusammenfassung | Qwen3.5-32B oder DeepSeek V3.2 | Starkes Textverständnis, präzise Extraktion |
| Code-Generierung & Review | DeepSeek V3.2 oder GLM-5.1 | Beste LiveCodeBench-Scores unter open-source LLMs |
| Kundenservice-Chatbot | Llama 4 Scout oder Qwen3.5-32B | Gute Balance aus Qualität und Betriebskosten |
| Mathematik & Datenanalyse | DeepSeek R1 oder Kimi K2.5 | Spitze bei AIME und MATH-Benchmarks |
| KI-Agenten & Workflows | GLM-5.1 oder Qwen3.5-397B | Beste Agentic-Benchmarks (SWE-bench, ToolBench) |
| Mehrsprachige Verarbeitung | Qwen3.5 (alle Varianten) | 29 Sprachen, starke DE/EN-Performance |
| Edge / On-Device | Phi-4 Mini oder Gemma 4 2B | Läuft auf CPU oder schwacher GPU |
| DSGVO-maximiert ohne Self-Hosting | Mistral Large 2 via La Plateforme | EU-Server, EU-Anbieter, DSGVO-konform |
| Günstigste API-Option | DeepSeek V3.2 | Bestes Cost-Performance-Verhältnis im API-Betrieb |
| Multimodal (Text + Bild) | Llama 4 Scout oder Gemma 4 | Native Multimodalität ohne separates Vision-Modell |
Unsere Einführung in KI-Agenten erklärt, welche Anforderungen Agentic Workflows an das zugrunde liegende Sprachmodell stellen – und warum Modellwahl hier über Erfolg oder Misserfolg entscheidet.
Lizenzen: Was bei kommerzieller Nutzung gilt
Nicht jedes open-source Modell darf uneingeschränkt kommerziell genutzt werden. Viele Unternehmen übersehen das. Hier sind die relevanten Lizenzmodelle für 2026:
| Lizenz | Modelle | Kommerzielle Nutzung | Einschränkungen |
|---|---|---|---|
| MIT | DeepSeek V3.2, DeepSeek R1, GLM-5.1, Phi-4 | Vollständig erlaubt | Keine – permissivste Option |
| Apache 2.0 | Qwen3.5 (alle Varianten), Kimi K2.5 | Vollständig erlaubt | Patenthinweise, Attribution |
| Gemma License | Gemma 4, Gemma 3 | Erlaubt mit Nutzungsbedingungen | Kein Training konkurrierender Modelle |
| Llama 4 License | Llama 4 Scout, Maverick | Erlaubt bis 700M monatliche Nutzer | Ab 700M MAU: Lizenzvertrag mit Meta nötig |
| MRL v0.1 | Mistral Large 2, Mistral Nemo | Erlaubt bis Umsatzschwelle | Ab bestimmter Unternehmensgröße: Enterprise-Lizenz |
Wer maximale Rechtssicherheit bei open source llm commercial use braucht, wählt MIT- oder Apache-2.0-Modelle. DeepSeek V3.2 und Qwen3.5 sind damit die unkompliziertesten open-source AI models für den kommerziellen Einsatz.
DSGVO und Datenschutz: Der entscheidende Vorteil für deutsche Unternehmen
Wer ein Open Source LLM auf eigenen Servern betreibt, hat einen klaren datenschutzrechtlichen Vorteil: Kundendaten, interne Dokumente und andere sensible Informationen verlassen niemals die eigene Infrastruktur. Kein Drittanbieter verarbeitet die Daten, kein US-Unternehmen unterliegt dem CLOUD Act.
Besonders relevant ist das für Branchen mit hohen Datenschutzanforderungen:
- Kundendaten-Verarbeitung (Anfragen, CRM-Daten, Bestellhistorien)
- Interne Dokumente (Verträge, Finanzdaten, HR-Unterlagen)
- Medizinische oder rechtliche Informationen (besondere Kategorien nach Art. 9 DSGVO)
- Banken, Versicherungen und Gesundheitssektor mit branchenspezifischen Vorgaben
Die Alternative für Unternehmen ohne eigene GPU-Infrastruktur: Mistral AI mit der La Plateforme. Französisches Unternehmen, EU-Server, DSGVO-Vertrag inklusive. Für Teams, die kein GPU-Cluster betreiben wollen, ist das der datenschutzrechtlich sauberste Mittelweg.
Wie Unternehmen KI datenschutzkonform in Kundenprozesse integrieren, zeigt unser KI im Kundenservice Leitfaden mit konkreten Implementierungsbeispielen.
Open Source LLM selbst betreiben: Hardware und Deployment
Der wichtigste Faktor beim Selbst-Betrieb eines open-source LLM: VRAM. Die Modellgröße bestimmt, welche GPU benötigt wird.
Hardware-Anforderungen nach Modellgröße
| Modellgröße | Min. VRAM | Empfohlene Hardware | Hinweis |
|---|---|---|---|
| 3–7B Parameter | 6 GB | RTX 3060, Apple M2 Pro | Gut für Tests und leichte Aufgaben |
| 13–14B Parameter | 12 GB | RTX 3080, A10G | Produktiv einsetzbar, gute Performance |
| 32–34B Parameter | 24 GB | RTX 4090, A100 40GB | Starke Allround-Qualität |
| 70–72B Parameter | 40–80 GB | 2x A100, H100 | 4-bit-Quantisierung für 40GB möglich |
| 671B MoE (37B aktiv) | 40–80 GB | 2x A100 | MoE aktiviert nur Teilparameter pro Token |
Quantisierung (4-bit oder 8-bit) reduziert den VRAM-Bedarf erheblich, oft mit kaum wahrnehmbarem Qualitätsverlust. Das GGUF-Format von llama.cpp ist die gängige Lösung für quantisierte open-source LLM-Modelle auf Consumer-Hardware.
Deployment-Tools im Vergleich
| Tool | Für wen | Stärken | Einstiegshürde |
|---|---|---|---|
| Ollama | Entwickler, kleine Teams | Einfachste Installation, OpenAI-kompatibler Endpunkt | Sehr niedrig |
| LM Studio | Nicht-technische Nutzer | GUI, kein Terminal nötig, viele Modelle | Sehr niedrig |
| vLLM | Produktive Deployments | Höchster Durchsatz, Batching, PagedAttention | Mittel |
| llama.cpp | Hardware-Effizienz | GGUF-Unterstützung, CPU-Betrieb möglich | Mittel |
| Hugging Face TGI | Enterprise | Docker-basiert, gut dokumentiert | Mittel |
Wer schnell starten will, nimmt Ollama: ein Befehl zum Installieren, ein weiterer zum Herunterladen und Starten. Für Produktionsumgebungen mit hohem Durchsatz ist vLLM besser geeignet.
Lokal betriebene Open Source LLMs lassen sich direkt mit Automatisierungsplattformen verbinden. Unser Vergleich n8n vs. Make vs. Zapier zeigt, welche Plattform sich am besten für die Integration lokaler KI-Modelle in Geschäftsprozesse eignet.
Open-Source LLM vs. ChatGPT: Der ehrliche Vergleich
Die häufigste Frage beim Thema open-source llm vs chatgpt: Lohnt sich der Aufwand – oder reicht das proprietäre Modell? Hier ist der direkte Vergleich:
| Dimension | Open Source LLM (selbst gehostet) | ChatGPT / GPT-5.x |
|---|---|---|
| Performance (Durchschnitt 2026) | Top-Modelle ebenbürtig | Leichter Vorteil bei Kreativaufgaben |
| Coding | DeepSeek V3.2 auf Augenhöhe mit GPT-5 Codex | GPT-5 Codex minimal besser auf LiveCodeBench |
| DSGVO-Konformität | Vollständig kontrollierbar | Daten gehen an OpenAI/USA |
| Kostenstruktur | Infrastruktur fix, keine Token-Kosten | Pro-Token, skaliert linear mit Volumen |
| Latenz | Abhängig von eigener Hardware | Konsistent niedrig bei OpenAI-API |
| Verfügbarkeit | Vollständig selbst kontrolliert | Abhängig von OpenAI-API-Status |
| Fine-tuning | Vollständiges Fine-tuning auf eigenen Daten | Begrenzt via Fine-tuning-API |
| Kontextfenster | Bis 10M Token (Llama 4 Scout) | 128k (GPT-4o), 1M (o3) |
| Einstieg | GPU-Infrastruktur nötig | Sofort via API-Key |
| GitHub-Zugang | Vollständige Modellgewichte auf GitHub/HuggingFace | Kein Zugang |
Bei hohem Abfragevolumen, sensiblen Daten oder dem Bedarf nach vollständigem Fine-tuning sind Open Source LLMs langfristig die bessere Wahl. Wer sofort loslegen will und keine Infrastruktur aufbauen kann, fährt mit ChatGPT erstmal schneller. Den ausführlichen Modellvergleich aus der Unternehmensperspektive gibt es hier: ChatGPT vs. Claude: Welches Modell passt zu Ihrem Unternehmen?.
3 Praxis-Workflows für Unternehmen
1. DSGVO-konformes Dokumenten-Analyse-System
Ein Anwaltsbüro oder eine Versicherung verarbeitet täglich hunderte Seiten Verträge, Policen und Schadensmeldungen. Diese Daten dürfen unter keinen Umständen externe Server erreichen.
Qwen3.5-32B läuft auf einem Hetzner Dedicated Server in Deutschland, angebunden über einen n8n-Workflow. Eingehende Dokumente werden per OCR extrahiert, ans Modell übergeben und strukturiert ausgelesen. Die Ergebnisse landen direkt im internen CRM – ohne Umweg über externe APIs.
Der Prozess ist vollständig DSGVO-konform, ohne Drittanbieter-Abhängigkeit. Und anders als bei Token-basierten APIs sinken die relativen Kosten mit steigendem Volumen.
2. Interner Wissens-Assistent mit RAG
Ein Mittelständler mit 200 Mitarbeitern hat jahrelange Dokumentation, interne Handbücher und Prozessbeschreibungen – die aber kaum jemand findet oder nutzt.
DeepSeek V3.2 oder Llama 4 Scout mit Retrieval-Augmented Generation: Alle internen Dokumente werden in einer Vektordatenbank (Chroma oder Weaviate) indexiert. Mitarbeiter stellen Fragen per Chat, das Modell liefert Antworten direkt aus den eigenen Unterlagen.
Das Ergebnis ist praktisch: weniger Rückfragen, schnelleres Onboarding, Wissen das im Unternehmen bleibt statt in einem externen Chatbot. Laut den KI-Automatisierungstrends gehören solche internen Wissenssysteme zu den am schnellsten wachsenden Enterprise-KI-Anwendungen.
3. Kundenservice mit lokalem Open Source LLM
Statt Kundenanfragen an ChatGPT zu schicken, betreibt ein E-Commerce-Unternehmen ein angepasstes Llama-4-Scout-Modell auf eigenem Server. Das Modell kennt Produktkatalog, Rückgabebedingungen und Bestellhistorie durch RAG und beantwortet einen Großteil der Anfragen ohne menschliche Intervention.
Llama 4 Scout mit vLLM, eigener Wissensdatenbank und Ticketing-System-Integration. Das Modell ist auf eigene Kundendaten fine-getunet – das ist der entscheidende Unterschied zu einem Standard-ChatGPT-Wrapper. Wie KI den Kundenservice konkret verändert, zeigt unser KI im Kundenservice Leitfaden.
Welches Open Source LLM passt zu Ihrem Unternehmen?
Wir analysieren Ihren Use Case, Ihre Infrastruktur und Ihre DSGVO-Anforderungen – und empfehlen das Modell, das tatsächlich zu Ihnen passt. Kostenloses Erstgespräch.
FAQ – Häufige Fragen zu Open Source LLMs
Das haengt vom Use Case ab. Fuer allgemeine Aufgaben und Coding liegt DeepSeek V3.2 vorne. Fuer Agentic Workflows und Software-Engineering fuehrt GLM-5.1. Qwen3.5-397B ist stark bei Reasoning und mehrsprachigen Aufgaben. Wer auf einer einzelnen GPU deployen will, nimmt Gemma 4 27B oder Qwen3.5-32B. Es gibt kein universell bestes open-source LLM-Modell.
Die meisten schon, aber die Lizenzen unterscheiden sich. DeepSeek und Qwen3.5 nutzen MIT bzw. Apache 2.0 und erlauben vollstaendige kommerzielle Nutzung ohne Einschraenkungen. Llama 4 ist bis 700 Millionen monatlich aktive Nutzer frei kommerziell nutzbar. Mistral-Modelle haben ab einer bestimmten Unternehmensgroesse Einschraenkungen. Die aktuelle Lizenzdatei des jeweiligen Modells immer vor der Nutzung pruefen.
Kleine Modelle mit 3 bis 7 Milliarden Parametern laufen ab 6 GB VRAM, also auf einer RTX 3060 oder einem Apple M2. Modelle um 32B Parameter benoetigen 24 GB VRAM, typischerweise eine RTX 4090. Groessere MoE-Modelle wie DeepSeek V3.2 laufen auf zwei A100 GPUs mit je 40 GB. Mit 4-bit-Quantisierung reduziert sich der Bedarf bei allen Modellgroessen erheblich.
Ja, wenn sie auf eigener Infrastruktur in der EU betrieben werden. Ein selbst gehostetes open-source Modell auf einem deutschen Server verarbeitet Daten niemals bei einem Drittanbieter. Das ist der entscheidende DSGVO-Vorteil gegenueber ChatGPT oder Claude. Wichtig: Der Serverstandort muss in der EU liegen, nicht nur der Sitz des Modellanbieters.
In vielen Benchmarks sind die besten Open-Weight-Modelle 2026 gleichauf mit GPT-5.x. GLM-5.1 hat GPT-5.4 auf SWE-Bench Pro uebertroffen. DeepSeek V3.2 erreicht aehnliche Coding-Scores wie GPT-5 Codex. Fuer kreative Texte und generelle Vielseitigkeit haben proprietaere Modelle noch einen leichten Vorteil. Die Luecke schliesst sich aber mit jeder Modellgeneration weiter.
Open Weight bedeutet: Die Modellgewichte sind oeffentlich zugaenglich und koennen heruntergeladen werden. Open Source im strengen Sinne bedeutet zusaetzlich, dass Trainingsdaten, Trainingscode und Zwischengewichte vollstaendig offen sind. Die meisten heute als Open Source bezeichneten Modelle (Llama, DeepSeek, Qwen) sind technisch gesehen Open-Weight-Modelle. Fuer den praktischen Unternehmenseinsatz ist dieser Unterschied in der Regel nicht relevant.
Alle grossen open-source LLM-Modelle sind auf GitHub oder Hugging Face verfuegbar. DeepSeek findet sich unter github.com/deepseek-ai, Llama unter github.com/meta-llama, Qwen unter github.com/QwenLM, Mistral unter github.com/mistralai. Fuer den einfachsten Einstieg: Ollama installieren und das gewuenschte Modell mit einem einzigen Terminal-Befehl herunterladen und starten.