🌘 DeepSeek 模型被妖魔化的真相:NIST 如何將開放科學變成安全恐慌
➤ 一場關於控制與利益的論述,而非對安全風險的真實評估
✤ https://erichartford.com/the-demonization-of-deepseek
本文深入剖析美國國家標準暨技術研究院(NIST)近期針對 DeepSeek AI 模型發布的報告。作者認為,該報告並非基於嚴謹的技術安全評估,而是政治打壓的工具,意圖透過製造恐慌來阻礙開放科學、開放研究及開源 AI 的發展,以維護現有企業的利益和控制權。文章指出,NIST 報告未能提供任何 DeepSeek 模型包含惡意程式碼、後門或資料外洩的證據,反而將不同使用情境(透過 API 存取與本地下載)混淆,並放大模型容易被「越獄」及部分回應中國政府觀點的現象,卻忽略了與其他同類型模型進行公平比較,以及美國模型同樣存在安全和偏見問題。作者強調,DeepSeek 的貢獻在於其模型能以較少資源達到優異效能,並將模型權重、架構、訓練方法等完全開源,對 AI 研究社羣是一大貢獻。
#AI #開放科學 #NIST #DeepSeek #資訊安全 #監管