Schlagwort: Ollama

Ollama ist eine Plattform, die es ermöglicht, große Sprachmodelle (LLMs) lokal auf deinem Computer auszuführen. Sie unterstützt verschiedene Modelle wie Llama 3.3, DeepSeek-R1, Phi-4 und Mistral und bietet die Möglichkeit, diese ohne Internetverbindung zu betreiben. Dies verbessert die Sicherheit und Privatsphäre und gibt dir die Kontrolle über die Anpassung und Optimierung der Modelle. Ollama ist mit macOS, Linux und Windows kompatibel und bietet eine benutzerfreundliche Oberfläche für die Nutzung.


  • Ollama: Lokale Bildgenerierung startet experimentell unter macOS

    Ollama: Lokale Bildgenerierung startet experimentell unter macOS

    Ollama ermöglicht nun experimentelle Bildgenerierung lokal unter macOS. Weiterlesen

  • So baust du dir dein eigenes Mini-Rechenzentrum – lokal, schlank, portabel

    So baust du dir dein eigenes Mini-Rechenzentrum – lokal, schlank, portabel

    Mit wenig Speicher und einem günstigen Mini-PC kannst du ein komplettes Docker-basiertes Rechenzentrum aufbauen – lokal, portabel und zuverlässig. Weiterlesen

  • Ollama: Dein umfassender Guide für lokale Large Language Models

    Ollama: Dein umfassender Guide für lokale Large Language Models

    Ollama macht Large Language Models lokal nutzbar. Installation, Nutzung, Vorteile & Anwendungsfälle im Überblick. Dein Guide für lokale LLMs. Weiterlesen