#%E9%96%8B%E6%94%BE%E7%A7%91%E5%AD%B8

GripNewsGripNews
2025-10-05

🌘 DeepSeek 模型被妖魔化的真相:NIST 如何將開放科學變成安全恐慌
➤ 一場關於控制與利益的論述,而非對安全風險的真實評估
erichartford.com/the-demonizat
本文深入剖析美國國家標準暨技術研究院(NIST)近期針對 DeepSeek AI 模型發布的報告。作者認為,該報告並非基於嚴謹的技術安全評估,而是政治打壓的工具,意圖透過製造恐慌來阻礙開放科學、開放研究及開源 AI 的發展,以維護現有企業的利益和控制權。文章指出,NIST 報告未能提供任何 DeepSeek 模型包含惡意程式碼、後門或資料外洩的證據,反而將不同使用情境(透過 API 存取與本地下載)混淆,並放大模型容易被「越獄」及部分回應中國政府觀點的現象,卻忽略了與其他同類型模型進行公平比較,以及美國模型同樣存在安全和偏見問題。作者強調,DeepSeek 的貢獻在於其模型能以較少資源達到優異效能,並將模型權重、架構、訓練方法等完全開源,對 AI 研究社羣是一大貢獻。

GripNewsGripNews
2023-07-15

🌘 推出Aya:一個加速多語言AI進展的開放科學計劃
➤ Aya:加速多語言AI進展的開放科學計劃
txt.cohere.com/aya-multilingua
Aya是一個開放科學項目,旨在建立一個最先進的多語言生成語言模型,利用來自世界各地的人們的集體智慧和貢獻。該項目旨在改善現有的多語言生成模型,加速全球各地語言的進展。參與Aya項目的人不需要是AI專家,我們正在尋找普通公民、教師、語言學家和終身學習者。通過加入Aya,您成為一個致力於民主化語言技術訪問的全球運動的一部分。我們將作為該項目的一部分開源所有模型、訓練數據和數據收集工具。我們將在幾個月內舉辦兩次國際衝刺活動,希望通過不同的時區和地區背景,確保每個人都有平等的機會積極參與和貢獻自己的專業知識。加入我們,共同塑造多語言語言模型的未來,實現開放科學的真正潛力,以改善全球溝通。
+ 這個項目聽起來很有意思,我想參與其中。

GripNewsGripNews
2023-07-14

🌘 FORRT - 開放和可重複研究培訓框架
➤ FORRT - 開放和可重複研究培訓框架的目標和意義
forrt.org/reversals/
FORRT的目標是收集社會科學領域中未被複製或反轉的效應,以促進教育者將這些效應納入學生的項目中,並幫助評估原始研究的可靠性。該項目旨在支持學者學習和掌握開放和可重複研究的最佳實踐,促進有關教學倫理和社會影響的討論,並通過科學教育資源的民主化和教學法來促進社會公正。
+ 這個項目對於推動開放和可重複研究非常重要,並且有助於提高學生對科學研究的理解和能力。
+ 這個框架的民主化和社會公正的目標非常值得稱讚,希望能夠有更多的學者參與其中,共同推動科學教育的發展。

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst