Ollama wird offizieller Modellanbieter von OpenClaw und unterstützt die hybride Nutzung von Cloud- und lokalen Modellen

Gate News Nachrichten, am 16. März gab das lokale Large-Model-Run-Tool Ollama bekannt, dass es offiziell zum Model-Anbieter von OpenClaw wird. Nutzer können die Integration durch den Befehl openclaw onboard --auth-choice ollama abschließen, alle Ollama-Modelle werden nahtlos mit OpenClaw zusammenarbeiten. Ollama bietet bei dieser Anbindung einen Hybridmodus aus Cloud und lokal, sodass Nutzer sowohl die von Ollama gehosteten Modelle in der Cloud als auch lokal laufende Modelle verwenden können. Der OpenClaw-Guide erkennt automatisch die lokal installierten Ollama-Modelle und unterstützt Streaming und Tool-Aufrufe über die native Ollama-API. OpenClaw-Gründer Peter Steinberger war an der Überprüfung dieser Integration beteiligt.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare