Ⅲ:最小算力資源部署(基于Ollama)
根據(jù)企業(yè)自身需求,結合企業(yè)已有設備資源,在企業(yè)本地內網(wǎng)部署DeepSeek模型,無需聯(lián)網(wǎng)。這對于對數(shù)據(jù)隱私要求極高的地方來說非常合適。然而,由于DeepSeek模型非常大,尤其是滿血版,因此本地部署需要高性能的硬件支持。為了解決這個問題,DeepSeek開源了簡化版模型,供普通用戶使用。本地部署的過程包括下載Ollama客戶端、安裝Ollama、選擇模型版本、本地運行DeepSeek模型等步驟。