Schlagwort: Ollama
Ollama ist eine Plattform, die es ermöglicht, große Sprachmodelle (LLMs) lokal auf deinem Computer auszuführen. Sie unterstützt verschiedene Modelle wie Llama 3.3, DeepSeek-R1, Phi-4 und Mistral und bietet die Möglichkeit, diese ohne Internetverbindung zu betreiben. Dies verbessert die Sicherheit und Privatsphäre und gibt dir die Kontrolle über die Anpassung und Optimierung der Modelle. Ollama ist mit macOS, Linux und Windows kompatibel und bietet eine benutzerfreundliche Oberfläche für die Nutzung.
-

Ollama: Lokale Bildgenerierung startet experimentell unter macOS
Ollama ermöglicht nun experimentelle Bildgenerierung lokal unter macOS. Weiterlesen
-

So baust du dir dein eigenes Mini-Rechenzentrum – lokal, schlank, portabel
Mit wenig Speicher und einem günstigen Mini-PC kannst du ein komplettes Docker-basiertes Rechenzentrum aufbauen – lokal, portabel und zuverlässig. Weiterlesen
-

Ollama: Dein umfassender Guide für lokale Large Language Models
Ollama macht Large Language Models lokal nutzbar. Installation, Nutzung, Vorteile & Anwendungsfälle im Überblick. Dein Guide für lokale LLMs. Weiterlesen