最近在練習
deepseek+dify+ollama+rag 本地部屬這個技術
但是用dify裡面ollama的外掛 , 一直沒辦法儲存模型
沒辦法繼續走下去
( 公司A電腦可以 , 蠻順利就過了 ; 但是B電腦就卡住死掉 )
然後在家裡自己用 也是卡住死掉...
上網查了很多原因 做法 還是不行
後來有一些人說 它們也遇到這些問題 都沒辦法解決
本來我是裝1.0.0版本 按儲存模型會卡住
後來家裡電腦改裝0.15.3版本 , 很順的就設定好模型 ; 也沒錯誤 😭😭😭
目前推測應該是1.0.0版本的bug問題比較大 , 不然就是個別電腦哪邊有衝突到 ( 會不會是SQL那邊? )
先把公司的電腦 都改成0.15.3版本 等以後dify出新版本 或者修復1.0.0 再裝新版本
( 頭腦要靈活一點 真的沒想到是版本問題 , 應該也有地方和電腦衝到 ; 但正常軟體應該都不可能這樣 )
筆記備註 :
1. docker可以裝在program files 只是權限要打開 不然裝的時候 會有錯誤
2. 這個指令 docker-compose up -d 如果跳錯誤 , 就重開docker ; 讓docker保持開啟的狀態
應該就OK了 會順利安裝完成 ( 記得是開啟docker 不是關閉docker )
3. 預設80port會和iis衝突 , 要修改才能正常使用 (我是把iis關掉 )
4. 別的RAG UI 軟體 也許可以關掉推理模型 ( 或者等以後新版的dify在試看看 )
5. 0.15.3版本 沒有設定環境變數 ollama_host=0.0.0.0 ; 安裝model一樣非常順
6 . 127.0.0.1:11434 確認ollama是否正常啟動
7. wsl hyper-v ip 不用改設定 就是預設的17.25...IP
8. dify舊版 , 下載zip安裝包 ; 放在目錄裡面就OK
9. docker裡面的 api - 1 , 就是dify運作的關鍵容器 ( 可以看log檔案 , 查詢錯誤 )
10. hyper-v 會建議去 控制台裡面的新增移除軟體 , 把這個功能新增上去
( windows子系統linux版 這個也打勾 )
11. 安裝WSL , cmd語法 : wsl --update
12. 如果有問題 , 重開機試看看 ( 但是dify卡住按f5 , 就可以正常了 ; 有時會卡住..)
參考資料
1. Netsh interface portproxy
2 以下來自網路
( google : DeepSeek + Dify :零成本搭建企业级本地私有化知识库保姆级教程 )
配置docker下的env文件
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 Ollama 的 API 地址(根据部署环境调整 IP)
OLLAMA_API_BASE_URL=host.docker.internal:11434
5. DeepSeek R1打造本地RAG知识库的AI助手:Dify深度讲解
6. youtube : DeepSeek R1打造本地RAG知识库的AI助手:Dify深度讲解
7. Ollama Serve 0.0.0.0 Windows Guide
8. Can not Setting Ollama Model
( 這些也是1.0.0版本按儲存沒有效果的苦主...)
9. A timeout occurred when adding a local Ollama model
10. Unable to configure the API
謝謝各位網路上的大神 🙏🙏🙏