01、本地大模型越來越簡單經(jīng)過了一年多時間的迭代,,大模型種類繁多,,使用也越來越簡單了。 在本地跑大模型,,個人認(rèn)為目前最好的軟件肯定是Ollama無疑了,, 不管你是在PC上跑大模型,在Mac上跑大模型,,還有在樹莓派上跑大模型,, 我們都可以用Ollama去跑各種大大小小的模型,而且它的擴(kuò)展性非常強(qiáng),。 02,、Ollama本地運(yùn)行大模型現(xiàn)在安裝Ollama超級簡單的,只需要進(jìn)入Ollama官網(wǎng)下載安裝包,,然后安裝即可,。 以下是我個人安裝為例(macOS系統(tǒng)):
直接點(diǎn)擊Next:
如果自己不確定模型名稱可以去官網(wǎng)查看模型 每款大模型都有不同版本,根據(jù)自己的機(jī)器來選擇,,根據(jù)官網(wǎng)的文檔也說明了,,一般7B的模型至少需要8G的內(nèi)存,13B的模型至少需要16G內(nèi)存,,70B的模型至少需要64G內(nèi)存,。 03、使用Web UI界面連接Ollamaollama沒有界面化的頁面使用,,它是在終端里交互的,,所有我們要使用圖形化的界面里去操作,這是我們可以使用Open WebUI,。 Open WebUI是一個開源的Web UI界面,,github地址:https://github.com/open-webui/open-webui
使用Docker方式運(yùn)行Open WebUI,,直接一條命令解決下載和運(yùn)行:
命令解釋:
啟動日志:
第一次使用時需要進(jìn)行注冊,這個數(shù)據(jù)都是本地存儲。
04,、本地化知識庫1,、open-webui界面文檔設(shè)置 2,、加載網(wǎng)頁或者文檔 在對話窗口通過 如果對知識庫有更高的需求,,可以使用AnythingLLM這個軟件,,github地址:https://github.com/Mintplex-Labs/anything-llm 一鍵三連:點(diǎn)贊,、分享、在看 |
|