如果你密切關注世界… 人工智能你可能已經聽過這個名字了。 深度搜尋這款來自中國的AI模型憑藉其提供的功能,引起了整個產業的關注。 效能與 OpenAI 等巨頭非常相似 或者說,谷歌,但計算和部署成本要低得多。這一切都引起了矽穀不少人的關注,他們開始密切留意。
DeepSeek 特別引人注目之處在於,它是一個模型… 根據 MIT 許可證開源這意味著任何人都可以下載它、審核它、修改它、將其用於商業用途,而對你來說最精彩的部分是: 在您自己的電腦上本地運行它。您無需將資料傳送到外部伺服器即可使用它,從而防止您的對話最終儲存在中國或其他任何國家的資料中心,並獲得… 隱私和控制.
DeepSeek是什麼?為什麼它引起瞭如此大的關注?
DeepSeek之所以能參與全球對話,是因為它提供了 在聊天和推理任務中取得了非常高的水平。 其成本遠低於大型專有模型。其開放性使其與 Meta、Google 或 Microsoft 等公司提出的方案處於同一水平,這些公司也都已發布了各自的模型。 如 Copilot 和 DeepSeek 的比較所示但其在成本和效率方面的激進做法,在整個行業中引起了轟動。
這個計畫顯然支持開源生態系統:它隸屬於 麻省理工學院執照您可以將其整合到商業專案中,對其進行修改,將其與其他工具結合使用,總而言之, 建立您自己的人工智慧基礎設施 無需每次執行測試或正式部署時都付費。這一事實甚至促使一些行業領導者… 重新考慮他們對開源軟體的立場這足以證明它所產生的影響。
此外,DeepSeek 最吸引人的特點之一是它被設計成能夠… 在使用者電腦上本機運行 由於其主要型號經過了精簡和簡化,您無需整個資料中心即可利用其基本功能;只需一台不錯的 PC,您就可以開始進行試驗並將其用作日常助手。
另一個重要的細節是,DeepSeek 將很多精力放在了… 逐步推理。 “ R1型號我們稍後會討論這一點,它能夠展現其在標籤之間的思考過程。當您使用某些工具運行它時,它可以讓您看到它在給出最終答案之前是如何分解問題的。

完整版與精簡版:為什麼你不應該安裝“大傢伙”
DeepSeek並非單一型號,而是一個系列。產品目錄的頂端是… DeepSeek-R1:671b真是個厲害角色。 671.000億個參數壓縮後,該模型約 GB 120 (從最初的 720 GB 開始),這可以讓人們了解它正常運作所需的資源規模。
舉個例子,像這樣的創作者 馬修·伯曼 他甚至還使用一台搭載 AMD EPYC 處理器的伺服器在雲端測試了 R1:671b 版本。 128核心, 更多 2 TB 內存多個 NVMe SSD 硬碟和 8 個 AMD Instinct MI300X GPU 每塊硬碟容量為 192 GB。基本上,這相當於俗稱的… “NASA計算機”與我們家裡的桌上型電腦或筆記型電腦相去甚遠。
另一面是各個版本 蒸餾或還原 來自 DeepSeek。這些變體採用了一種技術,讓較小的模型學習模仿較大模型的行為,從而利用其… 微調及其最佳化設定保留了原始模型的許多功能,但參數少得多,資源消耗也更低。 從 DeepSeek 提煉出來的模型 它們通常位於下方 8.000億個參數 它們的大小在 4 到 5 GB 之間。這使您可以 下載、儲存並在普通電腦上運行它們。 而不會導致設備起火。雖然犧牲了一些精確度和威力,但作為回報,你可以每天使用它們。
有了這些更輕的版本,一台電腦… 32GB 記憶體和 8GB 記憶體的獨立顯示卡 (例如,AMD Radeon RX 580)完全可以流暢地運行 DeepSeek。雖然回應速度比在網頁或高效能伺服器上稍慢,但體驗完全可用。 GPU 使用率接近 100% 模型生成過程中。
在 Windows 11 上本地使用 DeepSeek 的優勢
將 DeepSeek 引入 Windows 11 的最大吸引力在於,您無需再依賴雲端服務,而是可以獨立運作。 你自己的AI運行在你的機器上這帶來了許多優勢,對於許多用戶而言,這些優勢足以彌補初始安裝所付出的努力。
第一個方法很明顯:你可以使用 DeepSeek。 互聯網 模板下載完成後即可使用。如果您經常使用需要在不同網路間切換的筆記型電腦,這將非常理想。
第二個主要優勢是 隱私和資料控制由於所有操作都在您的電腦上運行,因此模型的輸入和輸出永遠不會離開您的電腦。如果您處理的是敏感資訊、公司內部文件或個人數據,則無需擔心您的對話最終會儲存在哪些伺服器上。
此外,由於您不依賴共用基礎設施,因此您不會受到影響。 不會出現排隊等待、服務中斷或因使用者飽和而導致的限制。如果您的電腦資源充足,DeepSeek 將僅根據您的硬體處理能力做出回應,而不管其他地方有多少人正在使用該型號。
最後,DeepSeek 的來源是… 開源且本地可執行 這使其成為進行實驗、與其他應用程式整合、自動化工作流程或建立完全由您掌控的 AI 測試環境的理想之選。對於開發人員和進階使用者而言,它更是不可多得的利器。
為充分發揮其性能,建議的硬體需求
雖然精簡版的 DeepSeek 設計得更節省資源,但還是有一些事項需要注意。 最低硬體規格 所以體驗不會令人沮喪。理論上,你可以在配置較低的機器上運行它,但配置越接近這些要求,效果就越好。
在記憶力方面,強烈建議至少擁有… 16 GB的RAM32GB 記憶體是理想的選擇,它能滿足你對流暢運行和同時運行多個程式的需求。記憶體不足則可能導致系統持續卡頓,甚至 Windows 開始頻繁地將頁面寫入磁碟,造成效能大幅下降。
至於顯示卡,關鍵在於… 可用 VRAM對於精簡版的DeepSeek R1(例如7B或8B),配備6-8GB記憶體的GPU應該足夠,當然,顯存越大越好。如果你的電腦沒有獨立顯示卡,某些型號可以只依靠CPU進行計算,但效能會顯著下降。
儲存空間至少需要… 每個型號 5 GB 免費空間 您需要預留足夠的空間來安裝您想要安裝的系統,以及用於其他型號和 Windows 11 本身的額外空間。強烈建議使用固態硬碟 (SSD) 而不是機械硬碟,因為固態硬碟的載入速度和存取大型檔案的速度要快得多。
如果你有一台現代電腦 整合式NPU(人工智慧專用處理器)Windows 11 將逐步支援在各種任務中使用 DeepSeek。然而,目前 DeepSeek 的大部分負載將主要落在 GPU 和 CPU 上,尤其是在處理要求更高的 LLM 模型時。
在 PC 上使用 Ollama 運行 DeepSeek:主機版輕量級解決方案
在 Windows 11 上本地使用 DeepSeek 的最簡單、最強大的方法之一是透過以下方式: 奧拉馬這是一個用作人工智慧模型管理器的程序,透過系統控制台進行操作。它沒有傳統的圖形介面,但作為補償… 它大大簡化了下載和執行過程。.
下載並安裝
首先,你需要造訪Ollama的官方網站, olama.com然後按下按鈕 免費下載該頁面會自動偵測您的作業系統,但如果您願意,您可以下載適用於其他相容平台(例如 macOS 或 GNU/Linux)的安裝程式。
文件下載完成後,你只需要… 運行安裝程式並按照嚮導操作。安裝過程非常簡單:點擊下一步,接受,安裝,就完成了。 Ollama 是一款相當輕量級的應用程序,因此安裝到您的電腦上不會花費太多時間。
安裝完成後,您必須啟動 Ollama。打開程式時可能看起來好像什麼都沒發生,但實際上程式只是在運行。 在背景作為服務運行接下來的一切神奇之處都將在 Windows 11 指令視窗中展現。
打開 以管理員權限執行命令提示字元 (CMD) 或者,如果您願意,也可以使用 Windows 終端。您可以在終端機中輸入必要的命令來下載並啟動 DeepSeek with Ollama,無需複雜的介面或隱藏選單。
使用 Ollama 啟動 DeepSeek R1 8B
Ollama 啟動並運行後,下一步是在硬碟上安裝 DeepSeek。對於大多數 Windows 11 使用者來說,最實用的版本是 deepseek-r1:8b這是 R1 型號的簡化版,大小約為 4,7 GB,專為更普通的電腦設計。
若要先下載再執行,請在命令視窗中輸入以下命令並按 Enter 鍵: ollama 拉 deepseek-r1:8b這條命令告訴 Ollama 從其庫中下載模型,並使其隨時可供使用。
下載檔案大小為幾GB,因此所需時間取決於… 您的互聯網連接速度您將看到進度顯示,直到 Ollama 確認模型已成功儲存到您的電腦上。完成後,DeepSeek R1 8B 即可使用。
模型運行時,命令視窗會變成一種… 極簡聊天您可以輸入提示訊息(您的要求或問題),然後觀看 DeepSeek 逐行產生答案。雖然介面比較基礎,但對於許多用途來說已經足夠且非常直觀。
在 Ollama 中更改版本和控制會話
Ollama 的一個有趣之處在於它允許你 嘗試不同的變化 同一模型,只是標籤不同。以 DeepSeek R1 為例,您可以在 Ollama 庫頁面的「版本」部分查看可用版本。 deepseek-r1 標籤.
要更改版本,只需替換命令中的數字即可。例如,您可以這樣寫: ollama 運行 deepseek-r1:7b o ollama 運行 deepseek-r1:x 根據已公佈的選項。參數越多,結果越好。 功能強大,接近完整型號 這將是一次難忘的體驗,但同時也會佔用您電腦更多的資源。
從命令列使用 DeepSeek 時,您可以 西班牙語啟動提示 沒問題。這個模型通常更傾向於使用英語,但如果你明確要求它用西班牙語回答,或者你一直用西班牙語輸入,它也能輕鬆適應。
DeepSeek R1 的一個奇特之處在於,它可以展現其 標籤之間的內部推理因此,在看到最終答案之前,你可以觀察模型是如何在思考過程中分解問題的。這有助於更好地理解他們的“思考過程”,並發現他們邏輯中潛在的缺陷。
當您想要退出 Ollama 中的 DeepSeek 會話時,只需輸入以下命令即可。 /再見這樣就能回到普通控制台,而不會關閉視窗。如果您想查看其他可用的實用命令,可以輸入 /? 這樣 Ollamama 本人就可以向您展示最重要的選項。

借助 LM Studio,我可以在 Windows 11 上使用圖形介面的 DeepSeek。
如果你覺得透過控制台與人工智慧對話有點麻煩,你可以選擇以下解決方案: 簡潔現代的圖形介面這就是它的作用所在。 LM工作室是一款適用於 Windows、macOS 和 Linux 的應用程序,它允許您以相當用戶友好的方式在本地下載和運行 LLM。
LM Studio 的功能是… 語言模式中心透過其自帶的介面,您可以搜尋、下載、配置模板,並直接使用模板發起聊天,無需觸碰終端。此外,它還包含一個與 ChatGPT 等網頁聊天機器人非常相似的對話環境,因此非常適合技術水平較低的用戶。
要安裝它,請訪問官方網站。 lmstudio.ai下載 Windows 安裝程式。執行安裝程式後,安裝過程非常簡單,只需按照精靈操作即可,無需任何複雜的選項。幾分鐘後,您就可以開始使用 LM Studio 了。
首次開啟 LM Studio 時,通常會提示下載模型。 Meta 的 Flame 3.1 8B 作為初步範例,建議接受此下載並允許其安裝和加載,因為這樣可以更輕鬆地從同一介面更流暢地管理其他模型。
Llama 3.1 8B 現已安裝並可用,下一步將是… 找到並下載 DeepSeek 的精簡版將其用作 Windows 11 系統中 LM Studio 的主要聊天範本。
在 LM Studio 中搜尋、下載和載入 DeepSeek
在LM Studio中,您會在左側邊欄看到幾個圖示。要找到DeepSeek,請點擊與該部分對應的圖示。 瀏覽它充當可用車型的搜尋引擎和目錄。
在區域 型號搜尋您會在頂部看到一個搜尋框。輸入“DeepSeek”,然後等待相容型號清單出現。通常情況下,它會顯示基於 R1 的兩款衍生型號: DeepSeek R1 Distill(Qwen 7B) y DeepSeek R1 Distill(火焰 8B).
兩種方案都適用於 Windows 11 電腦。基於 Llama 8B 的版本通常體積稍大一些,因為它包含… 大約十億個額外參數但它也可能提供更大的容量。選擇最適合您團隊資源的。
確定想要的版本後,選擇型號並按下按鈕。 免費下載LM Studio 會自動下載所有必要文件。與 Ollama 一樣,下載時間主要取決於您的網路速度和模型大小。
下載完成後,LM Studio 將顯示一個 彈出通知 表示該過程已完成。此通知通常包含一個類似這樣的按鈕: 負載模型 這樣你就可以立即加載 DeepSeek 並開始聊天了。
在 LM Studio 中配置並開始與 DeepSeek 聊天
一旦您點擊 負載模型 LM Studio 會從通知或已下載模型清單中將 DeepSeek 載入到記憶體中,並允許您將其用作對話引擎。下一步是轉到該部分。 諮詢也可在左側邊欄選單中找到。
在聊天視窗頂部,你會看到一個按鈕或下拉式選單,上面有類似這樣的文字: 選擇要載入的模型點擊這裡,選擇您剛下載的 DeepSeek 模型。這樣,該模型就會成為您在 LM Studio 中後續對話的基準模型。
選擇 DeepSeek 後,程式將顯示一系列 配置選項例如最大代幣數量、溫度設定、頂部功率以及其他高級參數。如果您不確定要調整哪些設置,可以保留預設設置,然後再次點擊即可。 負載模型 皇帝皇帝
載入完成後,您可以在下面的文字方塊中輸入您的第一個查詢或任務。您會看到 介面上顯示的標誌是LM Studio的標誌。雖然不是 DeepSeek 的,但實際上正是後者在內部生成答案。
要用西班牙語進行流暢的對話,只需要… 開始自己用西班牙文寫作這個模型通常會根據你提問時所使用的語言來回答。如果它用英語回答了你,你可以明確告訴它你想用西班牙語(來自西班牙)回答,它通常會相應地進行調整。
DeepSeek 精簡版的所有功能,結合開放模型、Ollama 或 LM Studio 等工具,以及一台配置尚可的 Windows 11 PC 的強大效能,就能將你的電腦變成… 一個真正的個人人工智慧實驗室在本地部署強大的 AI 系統,可以賦予您自由、隱私和巨大的學習和實驗空間,而無需受到第三方的限制。