最近在練習

deepseek+dify+ollama+rag 本地部屬這個技術

但是用dify裡面ollama的外掛 , 一直沒辦法儲存模型

沒辦法繼續走下去

( 公司A電腦可以 , 蠻順利就過了 ; 但是B電腦就卡住死掉 )

然後在家裡自己用 也是卡住死掉...

上網查了很多原因 做法 還是不行

後來有一些人說 它們也遇到這些問題 都沒辦法解決

 

dify無法儲存ollama模型

本來我是裝1.0.0版本 按儲存模型會卡住

後來家裡電腦改裝0.15.3版本 , 很順的就設定好模型 ; 也沒錯誤 😭😭😭

目前推測應該是1.0.0版本的bug問題比較大 , 不然就是個別電腦哪邊有衝突到  ( 會不會是SQL那邊? )

dify無法儲存ollama模型

先把公司的電腦 都改成0.15.3版本 等以後dify出新版本 或者修復1.0.0 再裝新版本

( 頭腦要靈活一點 真的沒想到是版本問題 , 應該也有地方和電腦衝到  ; 但正常軟體應該都不可能這樣 )

筆記備註 : 

1. docker可以裝在program files 只是權限要打開 不然裝的時候 會有錯誤

2. 這個指令 docker-compose up -d 如果跳錯誤 , 就重開docker ; 讓docker保持開啟的狀態

  應該就OK了 會順利安裝完成 ( 記得是開啟docker 不是關閉docker )

3. 預設80port會和iis衝突 , 要修改才能正常使用 (我是把iis關掉 )

4. 別的RAG UI 軟體 也許可以關掉推理模型 ( 或者等以後新版的dify在試看看 )

5. 0.15.3版本 沒有設定環境變數 ollama_host=0.0.0.0 ; 安裝model一樣非常順 

6 . 127.0.0.1:11434 確認ollama是否正常啟動

dify無法儲存ollama模型

7. wsl hyper-v ip 不用改設定 就是預設的17.25...IP

8. dify舊版 , 下載zip安裝包 ; 放在目錄裡面就OK

9. docker裡面的 api - 1 , 就是dify運作的關鍵容器 ( 可以看log檔案 , 查詢錯誤 )

10. hyper-v 會建議去 控制台裡面的新增移除軟體 , 把這個功能新增上去 

     ( windows子系統linux版 這個也打勾 )

11. 安裝WSL ,  cmd語法 : wsl --update

12. 如果有問題 , 重開機試看看 ( 但是dify卡住按f5 , 就可以正常了 ; 有時會卡住..)

 

參考資料

1. Netsh interface portproxy

2 以下來自網路

( google : DeepSeek + Dify :零成本搭建企业级本地私有化知识库保姆级教程 )

配置docker下的env文件

# 启用自定义模型

CUSTOM_MODEL_ENABLED=true

# 指定 Ollama 的 API 地址(根据部署环境调整 IP)

OLLAMA_API_BASE_URL=host.docker.internal:11434

3.  Docker Compose 部署

4. difygithub各項版本

5. DeepSeek R1打造本地RAG知识库的AI助手:Dify深度讲解

6. youtube : DeepSeek R1打造本地RAG知识库的AI助手:Dify深度讲解 

7. Ollama Serve 0.0.0.0 Windows Guide

8. Can not Setting Ollama Model 

   ( 這些也是1.0.0版本按儲存沒有效果的苦主...)

dify無法儲存ollama模型

 dify無法儲存ollama模型

dify無法儲存ollama模型

9.  A timeout occurred when adding a local Ollama model

10. Unable to configure the API

 

謝謝各位網路上的大神 🙏🙏🙏

 

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 湯尼 的頭像
    湯尼

    湯尼的部落格

    湯尼 發表在 痞客邦 留言(0) 人氣()