應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

豆包大模型發(fā)布各領(lǐng)域技術(shù)進展,首次披露 300 萬長文本能力

2024-12-31 08:49 IT之家
關(guān)鍵詞:豆包大模型

導讀:字節(jié)跳動旗下豆包大模型對外公布了 2024 年全領(lǐng)域的技術(shù)進展,宣稱自 5 月 15 日首次亮相的 7 個月以來,在通用語言、視頻生成、語音對話、視覺理解等方面模型能力已經(jīng)跨入國際第一梯隊。

  12 月 30 日消息,字節(jié)跳動旗下豆包大模型對外公布了 2024 年全領(lǐng)域的技術(shù)進展,宣稱自 5 月 15 日首次亮相的 7 個月以來,在通用語言、視頻生成、語音對話、視覺理解等方面模型能力已經(jīng)跨入國際第一梯隊。

  據(jù)介紹,截至 2024 年 12 月,最新版豆包通用模型 Doubao-pro-1215 綜合能力較 5 月提升 32%,已全面對齊 GPT-4o,在數(shù)學、專業(yè)知識等部分復(fù)雜場景任務(wù)中,效果表現(xiàn)甚至更好,同時其推理服務(wù)價格僅為 GPT-4o 的八分之一。其經(jīng)過海量數(shù)據(jù)優(yōu)化及模型架構(gòu)的創(chuàng)新,包括提升模型稀疏度、引入強化學習等,從而使該模型理解精度、生成質(zhì)量大幅提升。

  豆包還首次對外披露了其大模型300 萬字窗口的長文本能力。據(jù)介紹,其能夠一次輕松閱讀“上百篇”學術(shù)報告,每百萬 tokens 處理延遲僅 15 秒。據(jù)了解,其背后包括 STRING 等上下文關(guān)聯(lián)數(shù)據(jù)算法,能夠大幅提升 LLM 利用海量外部知識的能力,稀疏化及分布式方案將時延降到十秒級。

image.png