我 先說 沒事 不要對號入座
沒事不要尻尻 還有我是個正常的人 男性👦大弟弟
我 先說 沒事 不要對號入座
得了 便宜還賣乖
你不爽 就不要看 我要說 幾百次???
🖕 😄
其實 寫這blog 怎天哭邀 的人很多 給老子去吃屎🖕
這些其實 都還好 不過 之後 更多的是 龍蝦的衍生 產品😄
NotebookLM:將大量文件、影片轉化為「懂你的知識庫」,並能自動生成 Podcast 導讀音檔,最適合需要快速消化海量文獻的學生與研究者。
Notion AI:將 AI 深度嵌入工作空間,能自動續寫筆記、美化排版並從亂糟糟的內容中整理出待辦,最適合重度筆記使用者與知識管理者。
Claude Computer Use:AI 能直接「看」螢幕並模擬真人點擊滑鼠與輸入,跨軟體處理報帳或數據錄入,最適合每天在不同 App 間重複性切換操作的上班族。
Gemini Project Jarvis:專為 Chrome 打造的導航員,能自動完成比價、訂票與行程安排並連動 Google 生態,最適合想把網路雜事全權委託 AI 的 Google 用戶。
Skyvern AI:利用視覺辨識攻克「沒有 API」的老舊政府或企業網站,自動填寫複雜表單與採購單,最適合需與老舊行政系統對接的採購與行政專員。
Harpa AI / MultiOn:全天候監視網頁變動的側邊欄插件,達成特定價格或條件時自動搶票、抓數據,最適合專業代購、羊毛黨與市場數據分析師。
Kimi K2.5:具備「多代理集群」拆解能力,一句話就能指派百個分身同時搜集資料並生成報告,最適合需要高效率調研與多工並行的行銷與專案經理。
智譜清言:擁有頂級中文邏輯與視訊對話,專精於產出極其專業的公文、代碼架構與學術論文,最適合對文字與邏輯有嚴苛要求的行政、法律與科研人員。
龍蝦 Bot (OpenClaw):具備電腦底層控制權的遠端代理,能透過對話讓 AI 直接跨軟體搬運檔案或操作系統,最適合想打造「全自動 AI 員工」的極客與自動化狂人。
輕量且能實際做事的ai 跟app😄 突然有一個新的區域😞
睡覺😪 吃東西 拉屎 what happen ?!???? 大弟弟 日常 👦
而且人腦🧠一天能處理的資訊量 並沒有改變 一般人20000 text 專業或天賦 100000 text 以內資訊記憶👦
其實ai 很好用 但也的確會變笨 看我就知道 但真實情況是 邊際效益遞減的速度 很快 寫500 行 code 很有效 1000 行 開始error 2000 5000 花時間debug 10000 行以上 幾乎 失去效果 當你累積程式碼 到100萬行 幾乎 無法管理 不過 還是 有比沒有好 節省我很多時間👦🤡但你生成的部分越多 你管理跟維護成本就會直線上升 😑😨🙄
軟體技術 博大精深👦🤦
總結: tinygrad 正在證實「軟體越簡單,速度越快」的理論。它現在是開發者探索非 NVIDIA 硬體(尤其是 AMD 和 RISC-V)的首選深度學習框架之一。
4. 社群與定位
* 開發者門檻:雖然代碼簡潔,但 tinygrad 採用了大量的「Lazy Evaluation」(惰性求值)與底層編譯優化。對於習慣 PyTorch 的開發者來說,調試其底層邏輯仍有學習曲線。
* 主要用途:目前最成功的應用是 comma.ai 的 openpilot(自動駕駛系統),該系統已全面使用 tinygrad 替代高通的 SNPE。
3. 性能對比 (vs PyTorch)
* 推理性能:在許多非 NVIDIA 平台(如 AMD、Mac M1/M2/M3)上,tinygrad 的推理速度已經超越 PyTorch。
* 延遲與冷啟動:由於其輕量級的運行時(Runtime),對於小型模型的處理速度遠超 PyTorch。
* 穩定性:目前仍處於 Alpha 階段。官方表示,只有當 tinygrad 在單卡 NVIDIA 上執行常用論文模型的速度達到 PyTorch 的 2 倍時,才會進入 1.0 版本。
2. 硬體與商業進展:Tinybox
* Tinybox 出貨中:Tiny Corp 生產的 AI 伺服器 Tinybox(搭載 6x 7900 XTX 或英特爾硬體)已經實現穩定生產與出貨,主打極高的「性價比」。
* 與 AMD 的關係:雙方關係曾一度緊張(因韌體閉源問題),但目前已達成一定默契。Tiny Corp 致力於在 AMD 硬體上實現與 NVIDIA 相當的 LLaMA 訓練速度。
* 訓練能力:tinygrad 已不再僅限於推理(Inference),其目標是在 2026 年完成「訓練 LLaMA 405B 且速度不輸 NVIDIA」的合約挑戰。
截至 2026 年初,tinygrad 已經從一個「喬治·霍茲(George Hotz)的玩具專案」正式演變成一個具有競爭力的深度學習堆疊。
以下是 tinygrad 的最新現狀分析:
1. 核心開發進展:邁向「零依賴」
* 代碼極簡主義:截至 2025 年底,tinygrad 的核心代碼量依然維持在極致的 20,000 行左右(相比之下,PyTorch 擁有數百萬行)。George Hotz 認為這種「Elon 式軟體過程」能消除 98% 的冗餘與相容性補丁。
* 移除 LLVM:這是最近的一大突破。tinygrad 正在移除對 LLVM 的依賴,實現直接透過純 Python 驅動 AMD GPU,這使其成為一個完全主權(sovereign)的軟體堆疊。
* 版本更新:Tinygrad 0.12 於 2026 年 1 月發布,引入了 Mesa NIR/NAK 支持,這意味著它現在可以在 NVIDIA 硬體上實現「完全開源」的驅動堆疊(不依賴 NVIDIA 官方的閉源部分)。