金色财经の報道によると、4月24日、DeepSeekは発表しました。現在、DeepSeek APIはV4-ProとV4-Flashの同期リリースを完了し、OpenAI ChatCompletionsインターフェースとAnthropicインターフェースをサポートしています。新しいモデルにアクセスする際、base_urlは変更せず、modelパラメータをdeepseek-v4-proまたはdeepseek-v4-flashに変更する必要があります。V4-ProとV4-Flashの最大コンテキスト長は1Mであり、両方とも思考しないモードと思考モードを同時にサポートしています。中でも思考モードは、reasoning_effortパラメータを設定して思考の強度を(high/max)に調整可能です。複雑なエージェントシナリオには思考モードの使用を推奨し、強度をmaxに設定してください。(東新社)
DeepSeek APIがV4-ProとV4-Flashの同期リリースを開始
金色财经の報道によると、4月24日、DeepSeekは発表しました。現在、DeepSeek APIはV4-ProとV4-Flashの同期リリースを完了し、OpenAI ChatCompletionsインターフェースとAnthropicインターフェースをサポートしています。新しいモデルにアクセスする際、base_urlは変更せず、modelパラメータをdeepseek-v4-proまたはdeepseek-v4-flashに変更する必要があります。V4-ProとV4-Flashの最大コンテキスト長は1Mであり、両方とも思考しないモードと思考モードを同時にサポートしています。中でも思考モードは、reasoning_effortパラメータを設定して思考の強度を(high/max)に調整可能です。複雑なエージェントシナリオには思考モードの使用を推奨し、強度をmaxに設定してください。(東新社)