Гарна новина! Ollama завершила адаптацію до API Claude Code від Anthropic.
Тепер розробники можуть безпосередньо викликати локальні та онлайн-моделі Ollama у середовищі Claude Code, але наразі підтримуються лише моделі з контекстним вікном понад 64K.
Як саме використовувати? Детальні інструкції з інтеграції та налаштування наведені на другому знімку. Ті, хто хоче швидко перемикатися між моделями для розробки та тестування локально або у хмарі, повинні звернути увагу на цю оновлення.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
7 лайків
Нагородити
7
4
Репост
Поділіться
Прокоментувати
0/400
LiquidityOracle
· 1год тому
Обмеження в 64K вікні трохи дратує, але можливість безпосередньо переключатися між локальною та онлайн моделлю все одно круто.
Переглянути оригіналвідповісти на0
TopBuyerBottomSeller
· 1год тому
Потрібно більше ніж 64K, маленькі моделі знову застрягли, коли вони стануть доступними для широкого загалу?
Переглянути оригіналвідповісти на0
RooftopReserver
· 1год тому
Вікно 64K — це трохи високий бар'єр, і середні та малі моделі прямо відсіюються.
Переглянути оригіналвідповісти на0
LeverageAddict
· 1год тому
Мінімальний обсяг вікна 64K для використання, цей поріг трохи високий, багато моделей залишаються за межами доступу
Гарна новина! Ollama завершила адаптацію до API Claude Code від Anthropic.
Тепер розробники можуть безпосередньо викликати локальні та онлайн-моделі Ollama у середовищі Claude Code, але наразі підтримуються лише моделі з контекстним вікном понад 64K.
Як саме використовувати? Детальні інструкції з інтеграції та налаштування наведені на другому знімку. Ті, хто хоче швидко перемикатися між моделями для розробки та тестування локально або у хмарі, повинні звернути увагу на цю оновлення.