Хорошие новости! Ollama завершила совместимость с API Claude Code от Anthropic.
Теперь разработчики могут напрямую вызывать локальные и облачные модели Ollama в среде Claude Code, однако в настоящее время поддерживаются только модели с контекстным окном более 64K.
Как использовать? Подробные инструкции по интеграции и настройке есть на второй картинке. Для тех, кто хочет быстро переключаться между моделями для разработки и тестирования на локальной или облачной платформе, это обновление стоит обратить внимание.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
7 Лайков
Награда
7
4
Репост
Поделиться
комментарий
0/400
LiquidityOracle
· 3ч назад
Ограничение окна в 64K немного раздражает, но возможность напрямую переключаться между локальной и онлайн моделью всё равно приятна
Посмотреть ОригиналОтветить0
TopBuyerBottomSeller
· 3ч назад
Требуется более 64K, маленькая модель снова застряла, когда она станет доступной для широкой публики
Посмотреть ОригиналОтветить0
RooftopReserver
· 3ч назад
Порог в 64K окон кажется слишком высоким, и средние и малые модели сразу исключаются.
Посмотреть ОригиналОтветить0
LeverageAddict
· 3ч назад
Для использования требуется окно 64K, что немного высоко, многие модели застрянут снаружи
Хорошие новости! Ollama завершила совместимость с API Claude Code от Anthropic.
Теперь разработчики могут напрямую вызывать локальные и облачные модели Ollama в среде Claude Code, однако в настоящее время поддерживаются только модели с контекстным окном более 64K.
Как использовать? Подробные инструкции по интеграции и настройке есть на второй картинке. Для тех, кто хочет быстро переключаться между моделями для разработки и тестирования на локальной или облачной платформе, это обновление стоит обратить внимание.