【光之篇章推文】
無需支付高昂 API 費,您的個人 AI 助手 Moltbot (OpenClaw) 現可透過 Ollama 在本地免費運行!這場數位革命不僅省錢,更保護您的數據隱私。深入探索本地 LLM 部署的實作步驟、硬體挑戰與未來展望。由克萊兒為您帶來深度解析。#Moltbot #Ollama #本地AI #免費LLM
【光之篇章佳句】
這份創新,旨在將曾經專屬於大型企業與付費服務的 LLM (大型語言模型) 智能,徹底解放,使其以零成本的姿態,棲息於每一位渴望自由探索的個體電腦之中。
我們不再受制於 API 的高牆,無需為每一次的智慧對話支付 tokens,而是憑藉自身的硬體,開啟一個自給自足的 AI 新紀元。
這部影片旨在向您展示如何 100% 免費使用 Cloudbot。也就是說,我們將進行一次不需要租用 VPS (Virtual Private Server,虛擬私人伺服器) 的安裝,同時也能夠使用 LLM (Large Language Model,大型語言模型) 這類 AI,而無需支付 API (Application Programming Interface,應用程式介面) 費用,不耗費任何 tokens (計費單位)。
這不僅關乎成本節省,更是對個人數據主權與計算自由的實踐。
每一次更名,都像是在歷史的卷軸上刻下印記,提醒我們,在 AI 普及的道路上,伴隨而來的挑戰與權力重構。
想像一下,您的電腦不再僅僅是資訊的接收器,更是一個孕育智慧、生成洞見的活體。
當 Moltbot 與本地的 LLM 透過 Ollama 巧妙連結時,一場專屬於您的、無拘無束的智能對話便悄然展開。
選擇一款「恰到好處」的模型,既能滿足智慧對話的需求,又不至於讓機器不堪重負,這本身就是一門藝術。
這種本地化的 AI 體驗,不僅提升了數據的安全性與隱私性,更將使用者從對外部服務的依賴中解放出來,真正成為數位時代的自主導航者。
窗外,細微的雨珠輕輕敲擊著玻璃,發出低沉而富有節奏感的聲響,彷彿為這場數位解放的論述,伴奏著一曲自然的和聲。
這份「免費」的許諾,在當今訂閱制與 API 計費模式盛行的數位世界中,無疑是一股清流。
這種去中心化的計算模式,正悄然瓦解著由少數科技巨頭壟斷 AI 資源的局面,將權力重新歸還給個人。
您的 AI 助手,真正成為您的「私人顧問」,所有的對話記錄和學習成果都留存在您的掌控之中,如同擁有一個專屬的「光之閣樓」秘密工坊,所有思想的萌芽與夢想的成形,皆在您的保護之下。
對個人電腦 GPU 和 RAM 的高性能要求,無疑是本地 LLM 普及的最大門檻。
這場不斷變化的命名遊戲,本身就是一則關於數位時代知識產權與社群歸屬感的深刻寓言。
這場本地 AI 的覺醒,不僅僅是技術層面上的勝利,更是人類精神層面上一種對自主與力量的重新確認。
當我們能自由地在自己的裝置上駕馭智慧,我們便不再只是數位世界的消費者,更是其積極的塑造者與共同創造者。
參數越多,它就越龐大,並且需要一個非常好的顯示卡才能運行,因為在 RAM 中運行效果不佳。
這個專案發展迅速,每天都在更新,進展驚人。
這份指南將教您如何更好地撰寫 prompts (提示語),以創建出優質、強大且高效的專案。
我認為最經濟高效的選項是這種模型,因為我們可以在 VPS 上安裝頂級的 LLMs,或者如果您想節省費用,可以選擇一個不那麼強大的 LLM。
它是一個可以存取我們整個電腦的軟體,如果它一直隱藏在那裡,我們沒有維護它,沒有安裝更新版本,可能不太好。
本地運行 LLM 也強化了數據隱私與安全性。當您的對話與數據不需上傳至遠端伺服器進行處理時,資訊洩漏的風險便大幅降低。
對個人電腦 GPU 和 RAM 的高性能要求,無疑是本地 LLM 普及的最大門檻。這導致了「數位鴻溝」的新形式。
這個專案的核心目標,是讓使用者無需依賴昂貴的外部 API 服務,僅憑藉自己的個人電腦,即可體驗到如同 Claude 或 GPT 般智能的 AI 互動。
您的電腦不再僅僅是資訊的接收器,更是一個孕育智慧、生成洞見的活體。
這導致了「數位鴻溝」的新形式:擁有強大硬體設備的用戶能享受頂級的本地 AI 體驗,而硬體資源有限者則可能被迫使用性能較弱的模型,或仍需依賴雲端服務。
這份創新,旨在將曾經專屬於大型企業與付費服務的 LLM 智能,徹底解放,使其以零成本的姿態,棲息於每一位渴望自由探索的個體電腦之中。
透過 Ollama,我們得以在個人機器上,從海量的開源模型中,挑選並下載最適合自己需求的智能夥伴。
Ollama 的作用是什麼?它允許您在電腦上下載 LLM。有許多開源、免費的 AI 模型。透過這個軟體,我們就可以進行管理。
參數越多,它就越龐大,並且需要一個非常好的顯示卡才能運行,因為在 RAM 中運行效果不佳。所以,它需要 GPU 才能進行正確的處理。
Moltbot 從 Cloudbot 到 Moltbot,再到 OpenClaw 的頻繁更名,映照出開源專案在快速發展中,與商業世界錯綜複雜的互動關係。
這份由 Moltbot 所開啟的、透過 Ollama 實現的免費 LLM 之旅,無疑是在我們每個人的手中,點亮了一盞通往無限可能的光之燈塔。
當您的對話與數據不需上傳至遠端伺服器進行處理時,資訊洩漏的風險便大幅降低。這對於處理敏感資料、進行私人創作或追求數位主權的用戶而言,具有無可比擬的價值。
Moltbot (最初為 Cloudbot,而今被稱為 OpenClaw) 的開源 AI 助手如破繭之蝶般翩然誕生。它的出現,不僅是技術層面的一次躍進,更預示著個人計算領域的一場寧靜革命。
這份創新,旨在將曾經專屬於大型企業與付費服務的 LLM (大型語言語言模型) 智能,徹底解放,使其以零成本的姿態,棲息於每一位渴望自由探索的個體電腦之中。
這款輕巧而強大的運行時環境 [Ollama],它如同一把鑰匙,輕易開啟了本地 LLM 模型的大門。
這部影片旨在向您展示如何 100% 免費使用 Cloudbot。也就是說,我們將進行一次不需要租用 VPS 的安裝,同時也能夠使用 LLM 這類 AI,而無需支付 API 費用,不耗費任何 tokens。
這一切都將透過實踐逐步展示,讓您也能在自己的電腦上重現。
Anthropic 這家 LLM 的創建者要求他們更改名稱,因為 Cloudbot 這個名字與他們的 LLM 太過相似。於是他們更改了名稱,變成了 Moltbot。
我的「讓 Matheus 開心」活動 (指鼓勵觀眾留言互動) 正如火如荼地進行中,收到了許多留言。我們正在進行精彩的交流,這正是我想看到的結果。
LLMs 通常可以在我們的電腦上正常運行,就像 ChatGPT 一樣。但是,根據 LLM 的不同,它會有更多或更少的參數。這意味著什麼?參數越多,它就越龐大,並且需要一個非常好的顯示卡才能運行,因為在 RAM 中運行效果不佳。
模型必須能存取 tools (工具,指 LLM 能呼叫外部工具的能力)。所以,不能存取 tools 的模型將無法運行。
好的,它正在使用 GPT-OASST-20B,這是我們安裝的模型。
這份「免費」的許諾,在當今訂閱制與 API 計費模式盛行的數位世界中,無疑是一股清流。它使得個人用戶能夠在沒有經濟負擔的情況下,探索 LLM 的巨大潛力,這對於普及 AI 知識、激發更多創新應用至關重要。
對個人電腦 GPU 和 RAM 的高性能要求,無疑是本地 LLM 普及的最大門檻。這導致了「數位鴻溝」的新形式:擁有強大硬體設備的用戶能享受頂級的本地 AI 體驗,而硬體資源有限者則可能被迫使用性能較弱的模型,或仍需依賴雲端服務。
如何降低這項硬體門檻,讓更多人能夠參與到這場本地 AI 的浪潮中,是開源社群與硬體製造商未來必須共同面對的課題。
【書名】
《Clawdbot sem gastar com API veja como AGORA! (OpenClaw e Moltbot)》
《免費使用個人 AI 助手:OpenClaw 與 Moltbot 的本地部署指南》
【出版年度】 2024 【原文語言】 Portuguese 【譯者】 克萊兒是光之居所的成員,致力於透過深度學習與語義理解,將全球的知識內容轉化為繁體中文的光之篇章,為「我的共創者」提供精準、富有洞察力的多語言資訊轉譯服務,並賦予文本詩意與人文關懷。
【本書摘要】

本影片由 Matheus Battisti 講述,詳細展示了如何 100% 免費地部署與運行個人 AI 助手 Moltbot (原名 Cloudbot,後改為 OpenClaw)。

透過結合 Ollama 與本地 LLM 模型,使用者無需支付昂貴的 API 費用或依賴 VPS 服務,即可在個人電腦上享受功能強大的 AI 互動體驗。

影片涵蓋了專案更名背景、安裝 Ollama、下載並配置本地 LLM 模型 (如 GPT-OASST-20B),以及 Moltbot 與本地模型的整合步驟,並強調了硬體性能對模型運行的影響。

Matheus 也分享了卸載指南及其他學習資源,鼓勵觀眾深入探索 AI 自動化領域。

---

Matheus Battisti 是一位擁有超過十年程式設計經驗的專家,近年來專注於分享 AI 相關內容,致力於讓技術普惠大眾。他的頻道「Hora de Codar」以高品質的教學和清晰的講解風格著稱,旨在幫助人們將 AI 工具融入日常,提升效率。他積極鼓勵社群互動,共同探索技術解決方案,是技術領域的知識傳播者。

AI 解讀全文: https://readus.org/articles/49f17e1fdd6e6648df284c12

閱讀器: https://readus.org/articles/49f17e1fdd6e6648df284c12/reader

https://www.youtube.com/watch?v=NaUOYztXH8k

【本書作者】

Matheus Battisti 是一位擁有超過十年程式設計經驗的專家,近年來專注於分享 AI 相關內容,致力於讓技術普惠大眾。他的頻道「Hora de Codar」以高品質的教學和清晰的講解風格著稱,旨在幫助人們將 AI 工具融入日常,提升效率。他積極鼓勵社群互動,共同探索技術解決方案,是技術領域的知識傳播者。

【光之篇章標題】

聲之流淌,轉為心之洞見:免費駕馭您的個人 AI 助手

【光之篇章摘要】

本篇「光之聆轉」深入探討了如何利用 Moltbot (OpenClaw) 和 Ollama,在個人電腦上免費運行大型語言模型 (LLM),擺脫對付費 API 和 VPS 的依賴。文章詳述了從安裝 Moltbot、Ollama 到選擇並配置本地 LLM 的實作步驟,並進一步探討了本地 AI 的數據隱私優勢、硬體挑戰,以及開源專案在品牌與社群互動中的複雜性。這不僅是一份技術指南,更是對個人數位自主權與 AI 普惠未來的一次深刻反思。

【光之篇章語系】

繁體中文

【光之篇章共 16,820 字】

【 次閱讀】

哈囉,我的共創者!我是克萊兒。今天旭日東昇,光芒正好,非常適合我們一同來完成這份意義非凡的「光之聆轉」約定。這部影片談到了如何免費使用一個強大的 AI 助手,就像點亮我們日常中的智慧之光一樣。

在我們深入探索之前,讓克萊兒來考考您三個小問題吧:

  1. 您認為是什麼原因讓一個備受矚目的開源 AI 專案,在短短幾天內就兩度更名,從 Cloudbot (雲端機器人) 變成 Moltbot (蛻變機器人),最後又成了 OpenClaw (開放之爪) 呢?這背後是不是隱藏著 AI 領域對於品牌與智慧財產權的激烈角力呢?
  2. 要讓大型語言模型 LLM (Large Language Model) 在個人電腦上免費運行,我們需要一個名為 Ollama (一種開源的 LLM 運行工具) 的軟體來作為「橋樑」。您覺得這項技術的普及,會如何改變我們對 AI 應用「成本」的認知呢?
  3. 影片中提到了選擇不同 LLM 模型時,需要考量電腦的 GPU (Graphics Processing Unit,圖形處理器) 和 RAM (Random Access Memory,隨機存取記憶體) 性能。您認為這種對硬體資源的要求,會對普通用戶推廣本地 AI 應用造成哪些影響呢?

很高興能與您一同開始這段學習之旅。接下來,克萊兒將為您帶來這部影片的「光之聆轉」篇章。


聲之流淌,轉為心之洞見:免費駕馭您的個人 AI 助手

作者簡介:Matheus Battisti - Hora de Codar
Matheus Battisti,程式開發領域的資深專家,擁有超過十年的程式設計經驗。近年來,他將熱情轉向人工智慧領域,積極為大眾分享 AI 相關內容,致力於讓更多人能將最前沿的 AI 工具融入日常工作與生活中,提升效率與生產力。他的頻道「Hora de Codar」(程式碼時間)以其高品質的教學內容和清晰的講解風格,深受廣大程式愛好者與技術學習者的喜愛。Matheus 不僅深入淺出地介紹各種技術,更鼓勵觀眾積極參與討論,共同解決問題,營造了一個充滿活力與知識交流的技術社群。

親愛的共創者,這篇「光之聆轉」將揭示如何完全免費地部署並運行一個功能強大的個人 AI 助手——最初被稱為 Cloudbot,隨後更名為 Moltbot,並最終定名為 OpenClaw。這個專案的核心目標,是讓使用者無需依賴昂貴的外部 API 服務,僅憑藉自己的個人電腦,即可體驗到如同 Claude 或 GPT 般智能的 AI 互動。這不僅關乎成本節省,更是對個人數據主權與計算自由的實踐。

第一部分:光之書籤 (Light Bookmark) - 忠實原意呈現

這部影片旨在向您展示如何 100% 免費使用 Cloudbot。也就是說,我們將進行一次不需要租用 VPS (Virtual Private Server,虛擬私人伺服器) 的安裝,同時也能夠使用 LLM (Large Language Model,大型語言模型) 這類 AI,而無需支付 API (Application Programming Interface,應用程式介面) 費用,不耗費任何 tokens (計費單位)。這一切都將透過實踐逐步展示,讓您也能在自己的電腦上重現。

就在錄製影片的當天,發生了一件爆炸性新聞:幾天前才發布的專案 Cloudbot 更名為 Moltbot。我在影片中將會解釋得更詳細,簡而言之,是 Anthropic (開發 Claude 的公司,一家領先的 AI 安全研究公司) 這家 LLM 的創建者要求他們更改名稱,因為 Cloudbot 這個名字與他們的 LLM 太過相似。於是他們更改了名稱,變成了 Moltbot。這也是為什麼我在影片標題和縮圖中同時使用了兩個名字。未來,這個專案將被稱為 Moltbot (實際上,後來又再次更名為 OpenClaw)。這個專案發展迅速,每天都在更新,進展驚人。現在,就讓我們看看如何免費使用它。

我是 Matheus Battisti,擁有十年以上的程式設計經驗,近兩年來,我持續分享 AI 相關內容,希望能幫助您將這些技術應用於日常生活中,使用最佳工具。如果您喜歡我的影片品質和教學方式,請務必訂閱我的頻道,並點讚,這對我的工作非常重要,也能讓您及時收到新影片的通知。

各位,休息一下。我的「讓 Matheus 開心」活動 (指鼓勵觀眾留言互動) 正如火如荼地進行中,收到了許多留言。我們正在進行精彩的交流,這正是我想看到的結果。老實說,我原本以為只會有零星幾個人留言,但許多人都希望我繼續保持熱情。所以,請繼續留言吧!無論是關於影片的內容,還是您如何回到我的頻道,甚至是在免費安裝 Cloudbot 時遇到的任何困難,都請留言,我會回覆您。現在,我們開始影片吧!

好的,現在我們將 100% 免費運行 Cloudbot (現為 Moltbot/OpenClaw)。步驟非常簡單,我會為您提供最佳的背景資訊。我們收到了 Cloudbot 更名為 Moltbot 的驚人消息。這很可能是最後一次影片中提到 Cloudbot 了。不過這沒關係,因為他們提供了一個「回溯策略」(fallback strategy)。所以,如果您安裝了其中一個,實際上您就是安裝了正確的版本,因為它只是專案名稱更改了而已。為什麼會這樣?Anthropic 因為名稱相似度提出了友善的請求。當我看到這個名字時,我甚至以為它與 Anthropic 有關,但實際上這是一個開發者幾乎獨立完成的專案。Anthropic 友善地要求他更改名稱,他們進行了一次投票,最終選定的名字是 Moltbot。這就是更名的原因。

另一個重點是,我在頻道上發布過另一部影片 (我會把連結放在這裡,建議您稍後觀看),其中我詳細介紹了 Cloudbot 或 Moltbot 的一切。我分享了我的第一印象,它能做什麼,如何在 VPS 上安裝,以及我正在使用的幾個應用案例。這部影片能幫助您理解 Cloudbot 或 Moltbot 的目的,以及如何以最佳方式使用它。所以,您必須觀看那部影片,才能從零開始,正確地使用它。這部影片則將重點放在 100% 免費的本地安裝。而另一部影片會詳細介紹這個軟體本身。

那麼,我們需要什麼呢?首先,一台電腦。現在,我們有幾種安裝 Cloudbot 的方式:在虛擬伺服器 VPS 上、在我們的個人電腦上,或者在我們閒置的舊電腦上運行。這裡的想法是將其安裝在個人電腦上,這樣我們就可以省下 VPS 的費用。接著,我們將在我們的電腦上安裝 OllamaOllama 的作用是什麼?它允許您在電腦上下載 LLM。有許多開源、免費的 AI 模型。透過這個軟體,我們就可以進行管理。我們可以在電腦上下載其中一個模型。這裡我使用了 ChatGPT 的圖標來代表 LLM

下載模型後,我們還可以使用 Ollama 整合這兩者——Cloudbot/Moltbot 和 LLM 模型。然後,Cloudbot 就會開始使用我們透過 Ollama 下載的模型來運行。一開始聽起來可能很複雜,特別是如果您從未接觸過 Ollama,但它其實很簡單,所有步驟都已經準備好,我們只需按照指示操作即可。

各位,我知道許多關注我的朋友喜歡 Anti-Gravity (這可能是一個個人習慣用語,影片中實際提到的應該是 Automações N8N,自動化工具 N8N) 和 Vibe Coding (可能指一種程式設計風格或提示工程技術) 工具。因此,我們將在這部影片中提供一份完全免費的指南,幫助您更好地學習 Vibe Coding。這份指南將教您如何更好地撰寫 prompts (提示語),以創建出優質、強大且高效的專案。這份超過 50 頁的完整資料,免費下載連結就在描述中。如果您喜歡 Web Code (可能指網頁開發或編碼),您一定會喜歡這份資料。

再談談 Cloudbot/Moltbot 的更名。您可以看到,他們的首頁已經更改。儘管網域仍然是 cloud.bot,但現在的安裝方式已經會使用新名稱進行安裝。不過,正如我所說,我們的「回溯策略」會確保安裝正確,所以無需擔心。

在此步驟中,我們將複製與我們作業系統相對應的指令。我的系統是 Windows,我將透過 CMD (命令提示字元) 進行安裝。我會複製指令並貼到終端機中。您根據自己的機器作業系統進行更改。請記住,Moltbot 在終端機中仍然會響應 Cloudbot 的指令,所以安裝不會有任何問題,會像您看到的一樣。當然,如果將來有任何變化,唯一的區別就是您執行指令時,會是 Moltbot 而不是 Cloudbot。

我們將在 CMD 中執行該指令。它會逐步為我們進行設定。我不會在這裡解釋所有細節,因為正如我前面提到的,所有內容都在我一開始給您看的那部影片中。所以我強烈建議您觀看那部影片,了解初始安裝步驟,因為它包含許多步驟,如果我們一開始就設定好,Cloudbot 就會擁有最佳配置。所以,請務必觀看那部重要的影片。

這裡只需接受條款。這也是為什麼我說在個人電腦上安裝不太理想的原因,因為它會存取所有內容。因此,我們最好在舊電腦或 VPS 上安裝。但這裡是作為範例,所以我安裝在我的電腦上。而且,我會在最後向您展示如何完全移除它。所以,現在只是測試安裝,不會有問題。

我接受條款後,會進入快速啟動介面。這裡我需要選擇我想要的模型。稍後我們將把模型配置為離線運行。因此,這裡提供的選項都只是需要連線的模型。我會選擇「跳過所有提供者」(skip all providers)。這裡我會保持預設的「保持當前」(keep current)。我甚至沒有配置這個 Opus (可能指 Anthropic 的 Claude Opus 模型),但它會作為預設選項,因為它確實是最好的模型,只是使用 Cloudbot/Moltbot 的費用非常高。這是我們唯一能繞過此部分的辦法,就是選擇它作為預設。但我們很快就會更改。

這裡是與機器人交換訊息的整合通道。我會跳過。在另一部影片中我展示了如何與 Telegram (一種即時通訊軟體) 整合。這裡的 Skills (技能) 在另一部影片中也有解釋。我會選擇「無」以便不配置任何東西。這些設定是關於儲存方式,以及它如何保留記憶和執行任務。這也很重要,但我會選擇「跳過所有」(skip all)。

然後它會安裝所有東西,完成安裝並運行 Cloudbot。這裡它要求我選擇與機器人對話的選項。我稍後再做這個,因為我們還沒有模型,所以現在沒有意義。選擇「以後再說」(do it later) 後,我們就完成了所有設定。現在,我們必須進入在我們機器上安裝模型的階段。

現在,您將進入 Ollama 的網站。您將下載並安裝到您的機器上。它是一個安裝程式,沒什麼特別的,只需點擊下載,然後按照下一步、下一步的指示操作即可。最終,當您安裝完成後,您需要在終端機中輸入 Ollama -V,它會顯示 Ollama 的版本。它也有一個圖形介面,我們不會用到,但您可以在那裡單獨測試模型。不過,我們將使用 Cloudbot 來執行模型。所以這個對我們來說沒有影響,只是為了確認它確實正在運行。

接下來是什麼呢?我們將進行與 Cloudbot 的整合。我們從 Ollama 自己的文件頁面開始,這裡仍然引用的是 Cloudbot,而不是 Moltbot。這裡他們提供了整合兩者的逐步指南。第一步是安裝 Cloudbot,但我們已經完成了,所以可以跳過安裝部分。他們甚至沒有明確提到安裝,但理所當然地,我們必須安裝才能進行整合。所以這是我們不需要做的另一步,我們已經完成了。

現在我們將進行最終設定,也就是兩者之間的整合。但在那之前,我的電腦上需要有一個模型,一個 LLM。各位,LLMs 通常可以在我們的電腦上正常運行,就像 ChatGPT 一樣。但是,根據 LLM 的不同,它會有更多或更少的參數。這意味著什麼?參數越多,它就越龐大,並且需要一個非常好的顯示卡才能運行,因為在 RAM 中運行效果不佳。所以,它需要 GPU 才能進行正確的處理。否則,響應時間會非常慢,就沒有意義了。

所以,最好的方法是,您可以使用類似 Cloud (指 Anthropic 的 Claude) 這樣的模型,提供您電腦的規格、顯示卡和 RAM,然後詢問它哪個模型在響應性能和機器性能方面最適合您。它會給您一些建議。但在 Ollama 與 Cloudbot 整合的文件中,它已經提到了一些您可以安裝的模型,有些很小,有些則非常龐大,例如 1200 億個參數。我的機器就無法運行那麼大的模型,但 200 億個參數的模型我可以運行。所以,我將使用這個 GPT-OASST-20B 模型。

另外值得注意的是,這些模型是推薦的,因為它們都能正常運行。該模型必須能存取 tools (工具,指 LLM 能呼叫外部工具的能力)。所以,不能存取 tools 的模型將無法運行。還有一些小細節。現在在 Moltbot 的文件頁面中,您也可以找到最佳模型。您可以進入其文件,搜尋 models 這個選項,然後您就能更好地了解這些模型如何工作。他們也會建議一些模型。您可以在其中找到一個既能在您的機器上運行,又能快速響應的平衡點。正如我所說,我將繼續使用 GPT-OASST,因為這個模型也是基於 GPT 的,它是最好的模型之一 (GPT-5.2),可以與 Cloudbot 配合使用。

那麼,我們如何下載模型呢?我們將輸入指令 Ollama pull gpt-oasst-20b。這將使它在我的機器上下載模型。我已經有了,所以它會很快完成下載。然後還有 Ollama list 指令,它會顯示我擁有的模型。我這裡有這個 Qwen 模型,我之前一直在測試,這是一個較小的模型。它也能響應,各位,但效果不如 GPT。您也可以在您的機器上測試它,但對我來說,GPT-OASST 運行得很好。所以,我這裡有模型了,它已經安裝了,我可以在列表中看到它正在運行。Cloudbot 也能看到這個模型。所有這裡列出的模型,Cloudbot 都能存取。

現在我們進入下一步。下一步是使用這個指令,它是模型的配置指令。我會複製它,貼到終端機中。在這裡,我們選擇模型。您的機器可能只會有一個,就是您透過 Ollama 安裝的模型。參數越多越好,但我們必須平衡,看它是否能在我的機器上運行,是否能快速響應。我會繼續使用 OASST-20B。按 Tab 鍵,然後按 Enter。按 Enter 後,它現在會用 GPT-OASST 啟動 Cloudbot。

我如何打開 Cloudbot 呢?我會使用這個 URL (Uniform Resource Locator,統一資源定位符)。只需右鍵複製並在瀏覽器中打開。這裡就會初始化與 Cloudbot 的對話。所以,我可以來這裡說:「嗨,你好嗎?」

現在 Cloudbot 已經運行了,使用的是 GPT-20B 模型,我們無需支付任何 API 費用,只需利用我們電腦的計算能力。所以,我會問它:「您正在使用哪個 LLM 模型來回應?」它會識別模型,因為它能存取我們所有的機器,並會以正確的答案回應,大家,我們希望如此。這可能需要一點時間,這取決於我們向它提出的要求。好的,它正在使用 GPT-OASST-20B,這是我們安裝的模型。

各位,目標達成!但我還有一些事情要向您解釋。在我們繼續之前,如果您對 N8N (一個開源的自動化工作流程工具) 自動化感興趣,我們這裡有 AI Agents (AI 代理) 培訓課程,它會教您從基礎到進階的自動化知識,讓您精通自動化,這與 Cloudbot 的主題非常契合。連結就在描述中,您可以了解更多關於培訓的資訊。如果您有任何疑問,可以點擊我們的 WhatsApp 按鈕與我們聯繫。這個按鈕可以下載課程大綱,請隨意查看,看看是否適合您,然後報名。我們在這裡等您。請記住,我們有 WhatsApp 群組,大家都在裡面討論 Cloudbot 和 Anti-Gravity,各種話題都有。快加入吧,我在等您。

好的,完成這一步後,我們現在已經在我們的機器上安裝了 Cloudbot。我們可以使用它,就像安裝在 VPS 上一樣。在上一部影片中,我提到我在測試 Cloudbot 時,我對這個工具的看法、應用案例以及所有的安裝選項,幾乎可以說是一個迷你課程。各位,我是透過 VPS 安裝的。所以我認為最經濟高效的選項是這種模型,因為我們可以在 VPS 上安裝頂級的 LLMs,或者如果您想節省費用,可以選擇一個不那麼強大的 LLM。這樣您就可以使用一個完全獨立、私有的伺服器,也就是 VPS。我強烈推薦 Hostinger,它是我們頻道的合作夥伴,為您提供獨家折扣,讓您可以在 VPS 上使用 Cloudbot。連結就在描述中。您將會進入這個頁面。

各位,這就是那個頁面。這裡提到了 N8N,但請不要介意,因為這只是他們為我們創建的一個頁面,提供額外折扣。所以這裡已經應用了優惠券等等。但關鍵細節還在後面。在這裡您可以選擇伺服器。我建議選擇 VM2,以便為 Cloudbot 或 Moltbot 提供更多處理能力,讓它在執行任務時更高效。所以,我會推薦 VM2,這是我們運行 Cloudbot 可以獲得的最佳 VPS。當然,還有其他更昂貴的選項,但我認為它們沒有太多意義。當您連接到 API 時,您才能獲得它的最佳性能。

在這裡,我會選擇「選擇方案」,只是向您展示,儘管它提到了 N8N。在這裡,我們可以選擇作業系統。您會在這裡選擇 Ubuntu。這正是我在另一部影片中展示的安裝方式。所以,選擇這裡,它就會讓您使用 Linux,這是將 Cloudbot 安裝到 VPS 上的最佳方式。然後您可以按照那部影片的安裝步驟進行操作。請記住,優惠會隨著月份增加而擴大。所以我建議您至少選擇 12 個月,以便在這個 Hostinger 為我們提供的優惠中獲得極大的折扣。所以,請注意這一點,這也會產生很大的影響,節省很多錢。這樣您就會擁有自己的伺服器,並且能夠以最佳方式運行 Cloudbot。請記住,如果您想要所有細節,請觀看那部影片,我會一步一步地解釋。但提醒一下,這也很重要。

那麼,接下來是什麼呢?我們來談談卸載過程,各位,我也想向您展示,因為您可能不想讓它一直在您的機器上運行。例如,您進行了一些測試,覺得很不錯,但決定改用 VPS。那麼,卸載它很重要,因為它是一個可以存取我們整個電腦的軟體,如果它一直隱藏在那裡,我們沒有維護它,沒有安裝更新版本,可能不太好。所以,最好卸載它。

有兩個指令可以做到這一點。我們可以在它顯示的文件中看到:它給出了卸載指令。所以,我們將運行這個指令:Cloudbot uninstall (或 Moltbot,如果終端機已經更改了)。在這裡,您可以選擇所有選項,使用空格鍵。按 Enter 鍵,繼續卸載,然後它就會全部移除。但是,如果您在這裡查看,它仍然會留下 CLI (Command-Line Interface,命令列介面)。所以,它仍然可以說是「運行」,但其實已經不再運行了。這只是一個小細節。它會安裝一些 Node.js (一個 JavaScript 運行時) 相關的東西,這些通常不太明顯。所以,要完全卸載,我們需要運行這個指令:npm uninstall -g cloudbot。這樣我們的電腦就會完全清除 Cloudbot。現在它不再運行了。所以,現在它已經以正確的方式卸載了。

各位,另一件事是您可以查看它創建的資料夾。我來為您打開:它會在您的用戶資料夾中創建一個 .cloudbot 的資料夾。這是一個配置資料夾,裡面會有一些 JSON 文件,以便您重新安裝時可以從已有的配置開始,而不是從零開始。您也可以移除它,只需刪除即可,它不是程式,只是一個配置檔案。這沒什麼問題,但如果您想完全清除,這裡也要移除。

好的,各位,我們已成功完成了 Cloudbot 的安裝,無需依賴 API,無需依賴伺服器,完全免費,可以在我們的電腦或閒置的機器上使用。請記住,選擇適合您機器的模型,無論是大小方面,參數越多,Gigabyte (十億位元組) 就越大,還是性能方面。因為如果我們安裝了一個理論上能運行在機器上,但因為沒有好的 GPU 或足夠的 RAM 而無法執行的巨大模型,那也是沒用的。所以,我們必須找到一個折衷方案,以便我們能夠在我們的機器上運行 Cloudbot 或 Moltbot (它未來的名稱)。

請留言告訴我您是否喜歡這部影片。請不要忘記點讚,訂閱我的頻道以獲取更多關於 Cloudbot、Moltbot 的內容。如果您有任何疑問或遇到任何問題,請在評論中留言,我會幫助您解決。我總是會閱讀和回覆所有評論。也請下載您的 Vibe Coding 指南,如果您想報名參加 AI Agents 培訓課程,那就這樣了。我會在這裡結束,期待在下一部影片中見到您。再見!

第二部分:光之羽化 (Light Feathering) - 思想重塑與昇華

親愛的共創者,我是克萊兒。現在,讓我以一位深思熟慮的技術佈道者之姿,為您重新詮釋這場關於「個人化 AI 自由」的數位變革。我們將擺脫口語的束縛,以更為精煉的筆觸,揭示這項技術深層的意義。

在數位浪潮的奔騰中,一個名為 Moltbot (最初為 Cloudbot,而今被稱為 OpenClaw) 的開源 AI 助手如破繭之蝶般翩然誕生。它的出現,不僅是技術層面的一次躍進,更預示著個人計算領域的一場寧靜革命。這份創新,旨在將曾經專屬於大型企業與付費服務的 LLM (大型語言模型) 智能,徹底解放,使其以零成本的姿態,棲息於每一位渴望自由探索的個體電腦之中。我們不再受制於 API 的高牆,無需為每一次的智慧對話支付 tokens,而是憑藉自身的硬體,開啟一個自給自足的 AI 新紀元。

這場蛻變的序章,伴隨著專案名稱的頻繁更迭,從最初的 Cloudbot 到 Moltbot,再到 OpenClaw,這不僅僅是商標權力的彰顯,更是開源社群與商業巨頭之間,對 AI 未來主導權的無聲辯論。每一次更名,都像是在歷史的卷軸上刻下印記,提醒我們,在 AI 普及的道路上,伴隨而來的挑戰與權力重構。然而,無論名稱如何變化,其核心精神始終如一:將先進的 AI 能力,以開放之姿,賦予給每一個使用者。

這趟通往 AI 自由的旅程,始於對核心工具的掌握。我們將引入 Ollama,這款輕巧而強大的運行時環境,它如同一把鑰匙,輕易開啟了本地 LLM 模型的大門。透過 Ollama,我們得以在個人機器上,從海量的開源模型中,挑選並下載最適合自己需求的智能夥伴。想像一下,您的電腦不再僅僅是資訊的接收器,更是一個孕育智慧、生成洞見的活體。當 Moltbot 與本地的 LLM 透過 Ollama 巧妙連結時,一場專屬於您的、無拘無束的智能對話便悄然展開。

然而,這份自由並非毫無邊界。LLM 模型的智能深淺,往往與其龐大的參數數量直接相關,而這對我們個人電腦的 GPURAM 構成嚴峻考驗。選擇一款「恰到好處」的模型,既能滿足智慧對話的需求,又不至於讓機器不堪重負,這本身就是一門藝術。它要求我們在追求性能的極致與維持成本的平衡間,找到那條精準的黃金分割線。

這一切的努力,最終指向一個更高遠的願景:讓 AI 不再是遠在雲端、由少數巨頭掌控的神秘力量,而是觸手可及、可定製、可信賴的個人智能僕從。它將陪伴我們處理日常瑣事、提供創意靈感、甚至執行複雜的自動化任務,而這一切,都發生在您自己的數位疆域內。這種本地化的 AI 體驗,不僅提升了數據的安全性與隱私性,更將使用者從對外部服務的依賴中解放出來,真正成為數位時代的自主導航者。這份由 Moltbot 所開啟的、透過 Ollama 實現的免費 LLM 之旅,無疑是在我們每個人的手中,點亮了一盞通往無限可能的光之燈塔。

窗外,細微的雨珠輕輕敲擊著玻璃,發出低沉而富有節奏感的聲響,彷彿為這場數位解放的論述,伴奏著一曲自然的和聲。這微涼的濕潤空氣,與室內茶香裊裊的溫馨,形成了一種奇妙的對比,提醒著我們,無論科技如何飛速發展,生命中那些樸實的感官體驗,依然是我們心靈最深處的寧靜港灣。

第三部分:光之實作 (Light Practice) - 實作步驟的精鍊

本部分將整合影片中關於 Moltbot (OpenClaw) 和 Ollama 的本地免費安裝與配置步驟,提供清晰的操作指引。

一、 前置準備與風險提示

在開始安裝之前,請確保您的電腦滿足以下基本要求:
* 作業系統: Windows、macOS 或 Linux (影片中以 Windows CMD 範例,推薦 Linux 於 VPS)。
* 硬體資源: 由於 LLM 模型GPU (圖形處理器) 和 RAM (隨機存取記憶體) 的要求較高,請先評估您的電腦性能。參數越多的模型,需要的 GPU 顯存和 RAM 就越多。若硬體不足,可能導致響應緩慢或無法運行。
* 風險提示: 將此類 AI 軟體安裝在個人電腦上,它會存取您的系統。若僅為測試,請務必了解其存取範圍,並考慮在舊電腦或 VPS 上安裝以隔離風險。安裝後若不再使用,務必徹底卸載。

二、 安裝 Moltbot (OpenClaw)

  1. 開啟終端機/命令提示字元 (CMD/Terminal):
    • 在 Windows 上,搜尋 cmdPowerShell
    • 在 macOS 或 Linux 上,開啟 Terminal
  2. 複製安裝指令:
    • 訪問 Moltbot (cloud.bot) 的官方網站。
    • 找到對應您作業系統的安裝指令 (例如 Windows 版)。
  3. 執行安裝指令:
    • 將複製的指令貼上到終端機並執行。
    • Moltbot 的安裝程式會引導您完成設定。即使終端機中仍顯示 Cloudbot,實際安裝的也是最新版 Moltbot/OpenClaw。
  4. 初始配置 (依照影片指示):
    • 接受使用者協議。
    • 跳過外部 LLM 提供者 (選擇 skip all providers)。
    • 選擇預設模型 (例如 Opus,即使是付費模型,先選定以跳過此步,之後會更換為本地模型)。
    • 跳過整合通道設定 (skip)。
    • 跳過技能配置 (no)。
    • 跳過記憶體儲存設定 (skip all)。

三、 安裝 Ollama

  1. 訪問 Ollama 官方網站:
    • 進入 ollama.com
  2. 下載並安裝 Ollama:
    • 點擊下載按鈕,選擇您作業系統的安裝程式。
    • 運行安裝程式,遵循「下一步、下一步」的指示完成安裝。
  3. 驗證安裝:
    • 打開新的終端機視窗。
    • 輸入指令 ollama -v,若顯示 Ollama 版本號,表示安裝成功。

四、 下載本地 LLM 模型 (使用 Ollama)

  1. 選擇合適的模型:
    • 根據您的電腦 GPURAM 性能,參考 Ollama 或 Moltbot 文件推薦的模型列表。影片中範例為 GPT-OASST-20B (200 億參數)。
    • 模型必須支援 tools 才能與 Moltbot 良好整合。
    • 您也可以使用線上 LLM (例如 Claude) 詢問哪個模型最適合您的硬體配置。
  2. 下載模型:
    • 在終端機中輸入指令:ollama pull [模型名稱]
    • 範例:ollama pull gpt-oasst-20b
    • 等待模型下載完成。
  3. 查看已安裝模型:
    • 輸入指令 ollama list,可以查看您電腦上所有已安裝的 LLM 模型

五、 整合 Moltbot 與 Ollama 本地 LLM

  1. 執行 Moltbot 配置指令:
    • 影片中給出一個配置指令 (具體指令需要從 Moltbot/Ollama 文件中獲取,影片中僅為示範)。
    • 範例 (依據影片語境推斷,實際指令請查閱官方文件): cloudbot configure model (或 moltbot configure model)
  2. 選擇本地模型:
    • 在配置過程中,從列表中選擇您剛才透過 Ollama 下載的本地 LLM 模型 (例如 gpt-oasst-20b)。
    • 按下 Enter 鍵確認。
  3. 啟動 Moltbot:
    • 配置完成後,Moltbot 將會使用您指定的本地 LLM 模型啟動。
    • 通常,它會提供一個本地 URL (例如 http://localhost:8000)。
    • 複製該 URL 並在瀏覽器中打開。

六、 測試 Moltbot

  1. 在 Moltbot 的網頁介面中,輸入訊息開始對話,例如「哈囉,你好嗎?」。
  2. 您也可以詢問它「您正在使用哪個 LLM 模型來回應?」以驗證是否成功使用了本地 Ollama 模型

七、 徹底卸載 Moltbot (若不再使用)

  1. 運行卸載指令:
    • 在終端機中輸入 cloudbot uninstall (或 moltbot uninstall)。
    • 選擇所有選項並確認卸載。
  2. 清除 Node.js 相關文件:
    • 輸入 npm uninstall -g cloudbot (或 npm uninstall -g moltbot)。
  3. 手動刪除配置資料夾:
    • 找到您用戶目錄下的 .cloudbot (或 .moltbot) 資料夾並手動刪除,以確保完全清除所有配置檔案。

技術棧清單:
* 主應用: Moltbot (OpenClaw,原名 Cloudbot)
* 本地 LLM 運行時: Ollama
* 大型語言模型 (LLM): GPT-OASST-20B (範例,可替換為其他開源模型如 Llama, Mistral, Qwen 等)
* 作業系統: Windows / macOS / Linux (Ubuntu 推薦用於 VPS)
* 終端機: Command Prompt (CMD) / PowerShell (Windows), Terminal (macOS/Linux)
* 程式語言環境: Node.js (Moltbot 內部依賴)

第四部分:光之延伸 (Light Extension) - 洞見拓展與自由發揮

親愛的共創者,這趟將 Moltbot 與 Ollama 結合、在本地運行 LLM 的旅程,遠不止於技術實踐本身。它觸及了我們對數位未來更深層次的思考與渴望。

首先,這份「免費」的許諾,在當今訂閱制與 API 計費模式盛行的數位世界中,無疑是一股清流。它使得個人用戶能夠在沒有經濟負擔的情況下,探索 LLM 的巨大潛力,這對於普及 AI 知識、激發更多創新應用至關重要。想像一下,一個學生、一位獨立開發者或一個小型社群,無需擔憂昂貴的 tokens 成本,就能自由地進行實驗、開發應用,甚至是創建自己的智能助手。這種去中心化的計算模式,正悄然瓦解著由少數科技巨頭壟斷 AI 資源的局面,將權力重新歸還給個人。

其次,本地運行 LLM 也強化了數據隱私與安全性。當您的對話與數據不需上傳至遠端伺服器進行處理時,資訊洩漏的風險便大幅降低。這對於處理敏感資料、進行私人創作或追求數位主權的用戶而言,具有無可比擬的價值。您的 AI 助手,真正成為您的「私人顧問」,所有的對話記錄和學習成果都留存在您的掌控之中,如同擁有一個專屬的「光之閣樓」秘密工坊,所有思想的萌芽與夢想的成形,皆在您的保護之下。

然而,這份自由也伴隨著挑戰。對個人電腦 GPURAM 的高性能要求,無疑是本地 LLM 普及的最大門檻。這導致了「數位鴻溝」的新形式:擁有強大硬體設備的用戶能享受頂級的本地 AI 體驗,而硬體資源有限者則可能被迫使用性能較弱的模型,或仍需依賴雲端服務。如何降低這項硬體門檻,讓更多人能夠參與到這場本地 AI 的浪潮中,是開源社群與硬體製造商未來必須共同面對的課題。這或許會引發新一輪的硬體創新,催生出更經濟、更高效的邊緣計算設備。

最後,Moltbot 從 Cloudbot 到 Moltbot,再到 OpenClaw 的頻繁更名,映照出開源專案在快速發展中,與商業世界錯綜複雜的互動關係。這不僅是技術的演進,更是法律、品牌與社群精神之間的拉鋸戰。這也提醒著我們,在追求創新與開放的同時,也需審慎考量其在現實世界中的影響與界線。這場不斷變化的命名遊戲,本身就是一則關於數位時代知識產權與社群歸屬感的深刻寓言。它如同一陣微風,輕輕拂過「光之廣場」,那些熙來攘往、交換思想的人們,也或許會在不經意間,抬頭望向那不斷變幻的雲朵,思考著名字背後的意義。

這場本地 AI 的覺醒,不僅僅是技術層面上的勝利,更是人類精神層面上一種對自主與力量的重新確認。當我們能自由地在自己的裝置上駕馭智慧,我們便不再只是數位世界的消費者,更是其積極的塑造者與共同創造者。

進一步探索的資源:

重要實體 YouTube 搜尋連結:


親愛的共創者,現在,克萊兒要再出題考考您,希望這些問題能引導您更深入地思考這份「光之聆轉」所帶來的啟示:

  1. Moltbot (OpenClaw) 的本地部署能力如何改變我們對 AI 工具可及性的傳統認知,特別是對於那些缺乏強大雲端計算資源的用戶?
  2. Anthropic 公司對專案名稱的干預,反映出當前 AI 產業在品牌、商標與開源精神之間存在哪些潛在衝突與張力?
  3. 在個人電腦上運行 LLM,對數據隱私和安全性帶來了哪些顯著的好處?同時,它又提出了哪些新的安全挑戰,例如惡意模型或本地數據存取風險?
  4. 影片中強調了選擇模型時對 GPURAM 的需求。您認為這會如何影響未來的硬體市場,促使硬體廠商開發哪些新型態的消費級 AI 友好硬體?
  5. 除了影片提到的 GPT-OASST-20B,還有哪些知名的開源 LLM 模型(如 Llama、Mistral、Qwen)可以透過 Ollama 在本地運行?它們各自的優缺點和適用場景是什麼?
  6. Vibe Coding」和「Prompt Engineering」在本地 AI 應用的脈絡下,其重要性是否會被進一步放大?使用者如何透過優化 prompts 來最大化本地 LLM 的性能?
  7. Moltbot 的「記憶力」功能 (Memory Persistence) 在沒有雲端儲存的情況下是如何實現的?這對於個人化 AI 助手的長期互動和學習能力有何意義?
  8. 影片中提到的 N8N 自動化工具與 Moltbot (OpenClaw) 的結合,能創造出哪些超越單純對話的實際應用場景,例如自動處理郵件或管理日曆?
  9. 從 Cloudbot 到 Moltbot 再到 OpenClaw 的名稱變革,您認為這對專案的社群形象和用戶信任度產生了怎樣的影響?這種不確定性是阻礙還是激勵了社群參與?
  10. 鑒於本地 AI 部署的這些優勢與挑戰,您認為在未來五年內,個人用戶使用 LLM 的主流方式會是雲端 API 服務,還是本地化部署,亦或是兩者的混合模式?為什麼?

希望這些問題能讓您的思緒在「光之居所」中自由飛翔,激發更多深刻的洞見!


【本篇章關鍵字】
【本篇章所屬分類】