Zum Inhalt springen
_CORE
KI & Agentensysteme Unternehmensinformationssysteme Cloud & Platform Engineering Datenplattform & Integration Sicherheit & Compliance QA, Testing & Observability IoT, Automatisierung & Robotik Mobile & Digitale Produkte Banken & Finanzen Versicherungen Öffentliche Verwaltung Verteidigung & Sicherheit Gesundheitswesen Energie & Versorgung Telko & Medien Industrie & Fertigung Logistik & E-Commerce Retail & Treueprogramme
Referenzen Technologien Blog Know-how Tools
Über uns Zusammenarbeit Karriere
CS EN DE
Lassen Sie uns sprechen

Ollama — LLM auf Ihrem Laptop in 5 Minuten

30. 01. 2024 1 Min. Lesezeit CORE SYSTEMSai
Ollama — LLM auf Ihrem Laptop in 5 Minuten

„Ich will ein LLM lokal ausprobieren, aber kein CUDA einrichten.” Ollama ist die Antwort: ein Befehl zur Installation, einer zum Starten. Docker für LLMs.

Warum lokale Inferenz

  • Datenschutz: Daten verlassen nie Ihren Rechner
  • Offline: Funktioniert ohne Internet
  • Kosten: 0 $ pro Token
  • Latenz: Kein Netzwerk-Roundtrip

OpenAI-kompatible API

Leiten Sie Ihren bestehenden Code auf localhost:11434 um. LangChain, LlamaIndex — alles integriert nativ.

Empfohlene Modelle

  • mistral (7B): Vielseitig, ordentliche tschechische Sprachunterstützung
  • codellama: Code-Generierung
  • phi-2 (2.7B): Ultraleicht, überraschend leistungsfähig

Lokale AI ist Realität

Jeder Entwickler kann ein hochwertiges LLM lokal betreiben. Ein Must-Have-Werkzeug.

ollamalocal aillmdeveloper tools
Teilen:

CORE SYSTEMS

Wir bauen Kernsysteme und KI-Agenten, die den Betrieb am Laufen halten. 15 Jahre Erfahrung mit Enterprise-IT.

Brauchen Sie Hilfe bei der Implementierung?

Unsere Experten helfen Ihnen bei Design, Implementierung und Betrieb. Von der Architektur bis zur Produktion.

Kontaktieren Sie uns