
Meta 的 Llama-3.1-405B 遭泄漏,可下載,性能超 GPT-4o!

Meta 的 Llama 3.1-405B 版本數據泄漏,即將發佈的模型性能超過 GPT-4o,但推理成本提升了 3 倍,編碼性能較差。個人開發者可能無法負擔如此大參數的模型,適用於企業和政務公共部門。該模型已經流出,下載速度較快,但一般 GPU 無法運行。對於 Meta 發佈的模型,有網友持負面態度,認為性價比和功能都不值得期待。此外,泄漏事件來源於微軟的 Azure Github。該模型對算力要求較高,不如 GPT-4o mini 性價比高。
7 月 23 日凌晨,有人爆料,Meta 的 Llama 3.1-405B 評測數據遭遇泄漏,明天可能會發布 Llama 3 系列中最大的參數模型,同時還會發佈一個 Llama 3.1-70B 版本。
這也是在 3.0 版本基礎之上進行了功能迭代,即便是 70B 的基礎模型的性能也超過了 GPT-4o。

就連磁力鏈接都流出來了,「AIGC 開放社區」試了一下大約有 763.84G。本來 huggingface 上也有的,後來庫被刪除了。
下載速度也還可以,每秒 14M 左右,看來確實是有不少人在下這個模型。

但這個模型一般的 GPU 肯定是跑不起來,如此大的參數在部署方面個人開發者也負擔不起(如果你有一些 H100 也沒問題),估計是給企業、政務公共部門用的。
對於 Meta 即將發佈的模型,就有網友潑冷水。相比 OpenAI 最新的 GPT-4o mini 版本,Llama 3.1-70B 推理成本提升了 3 倍,但編碼的性能卻要差很多。
從性價比、功能來看,Meta 的新模型也沒什麼值得期待的。

還有人甚至在 GitHub 上看到了上述發佈的模型,但很快就拿下來了,估計有一些人可能已經能使用了。

也有人表示,對於這個泄漏事件他認為是真的,因為這是從微軟的 Azure Github 流出來的。

但是這個模型參數較大,對 GPU 的要求太高了,不如 GPT-4o mini 性價比高。


雖然模型是免費的,想運行起來還是相當費勁的,沒有企業級的算力基礎真的無法使用。所以,這對於企業來説是一個不錯的好消息。

有人指出即便對 Llama 3.1-405B 模型進行大幅度優化,量化到 5 位數,仍然無法適用於消費級 GPU,真的是對硬件要求特別高。

如果這份評測數據是真的,那麼對於全球多數國家來説都是一個天大的福利。因為這是 Meta 的 Llama 3 系列的頂級模型並且是全部開放權重,也就是説人人都能用上免費的 AI 模型。
但是如果想開發生成式 AI 應用,也需要強大的 AI 算力基礎、高質量數據以及微調技術。

由於監管機構和各種法案的原因,Meta 一直在推遲 405B 系列模型的發佈。那麼,本次泄漏是否是 Meta 特意放出來的呢,因為這是他們的老傳統了,去年的 Llama 模型就幹過一次,
當時「AIGC 開放社區」也測試過,確實就是他的原模型。期待一波明天,看看 Meta 還能整啥花活。
本文作者:AIGC 開放社區,來源:AIGC 開放社區,原文標題:《Meta 的 Llama-3.1-405B 遭泄漏,可下載,性能超 GPT-4o!》

