DeepSeek近期在人工智慧(AI)領域掀起了巨大的波瀾,其應用程式在蘋果App Store的下載量迅速攀升,甚至超越了ChatGPT,成為免費榜單的首位。 這一現象引起了全球科技界的廣泛關注。

DeepSeek的起源

DeepSeek是一家成立於2023年的中國杭州AI初創公司,背後由高飛創投基金支持。 該公司在短短兩個月內開發了開源模型DeepSeek-R1,開發成本僅約600萬美元,這與OpenAI每年約50億美元的支出形成鮮明對比。

DeepSeek與ChatGPT的差異與優勢

DeepSeek-R1是一個開源的AI模型,與OpenAI的ChatGPT相比,具有以下優勢:

• 成本效益:DeepSeek-R1以較低的成本實現了卓越的性能,挑戰了高價閉源模型的傳統。

• 開源性:DeepSeek-R1是開源的,而ChatGPT是閉源的。

成本優勢

DeepSeek在開發成本上展現了顯著的優勢。據報導,DeepSeek的模型訓練成本僅約為557.6萬美元,遠低於OpenAI的GPT-4模型訓練成本,後者高達數億美元。 這種低成本高效能的開發模式,對於資金有限的初創企業和研究機構而言,提供了更具可行性的AI開發途徑。

對NVIDIA的影響

DeepSeek在其AI模型的訓練中,主要使用了英偉達的H800芯片。根據DeepSeek發佈的技術報告,他們使用了由超過2000個H800芯片組成的集群來訓練其參數為6710億的V3模型。 相比之下,Meta在訓練參數量為4050億的Llama 3模型時,使用了16384塊更強的H100顯卡,耗時54天。這表明,DeepSeek在訓練效率上達到了Meta的11倍。

然而,有觀點認為,DeepSeek可能擁有更多的高端芯片。美國AI公司Scale AI的首席執行官Alexandr Wang表示,據他瞭解,DeepSeek擁有大約5萬塊英偉達H100芯片,但由於美國的出口管制,DeepSeek無法公開討論此事。

相比之下,OpenAI的ChatGPT主要依賴英偉達的高端GPU進行訓練。OpenAI曾表示,ChatGPT是與英偉達和微軟合作完成的超級AI,使用了大量的英偉達AI芯片。

DeepSeek的成功明顯對NVIDIA等晶片製造商產生了顯著影響。由於DeepSeek的模型能夠在較低成本的硬體上運行,市場對高端GPU的需求預期可能下降,導致NVIDIA股價在消息傳出後出現下跌。

美國科技企業的應對

DeepSeek的崛起引起了美國科技巨頭的關注。Meta(前Facebook)迅速成立了四個專門研究DeepSeek運作方式和技術優勢的戰情室,試圖從中學習並應對這一競爭壓力。

Leave a Reply

Your email address will not be published. Required fields are marked *

Trending