中国人与黑人牲交FREE欧美_丰满熟妇XXXX_婷婷久久综合九色综合97_免费无码成人AV在线播软件_免费AV 中文字幕 在线

焦點(diǎn)熱門:百川智能發(fā)布 70 億參數(shù)量開源中英文大模型

2023-06-16 20:31:05

在多個(gè)中英文權(quán)威評(píng)測榜單上,baichuan-7B 均取得了優(yōu)異的成績。

王小川的大模型,首次公開亮相。


(相關(guān)資料圖)

2023 年 6 月 15 日,被稱為「中國 ChatGPT 夢之隊(duì)」的百川智能公司,推出了 70 億參數(shù)量的中英文預(yù)訓(xùn)練大模型——baichuan-7B。

baichuan-7B 不僅在 C-Eval、AGIEval 和 Gaokao 中文權(quán)威評(píng)測榜單上,以顯著優(yōu)勢全面超過了 ChatGLM-6B 等其他大模型,并且在 MMLU 英文權(quán)威評(píng)測榜單上,大幅領(lǐng)先 LLaMA-7B。

目前 baichuan-7B 大模型已在 Hugging Face、Github 以及 Model Scope 平臺(tái)發(fā)布。

01 多個(gè)最具影響力中文評(píng)估基準(zhǔn) 7B 最佳

為了驗(yàn)證模型的各項(xiàng)能力,baichuan-7B 在 C-Eval、AGIEval 和 Gaokao 三個(gè)最具影響力的中文評(píng)估基準(zhǔn)進(jìn)行了綜合評(píng)估,并且均獲得了優(yōu)異成績。

在中文 C-EVAL 的評(píng)測中,baichuan-7B 的綜合評(píng)分達(dá)到了 42.8 分,超過了 ChatGLM-6B 的 38.9 分,甚至比某些參數(shù)規(guī)模更大的模型還要出色。

C-EVAL 評(píng)測截圖,時(shí)間為 2023-06-15

C-Eval 評(píng)測基準(zhǔn)由上海交通大學(xué)、清華大學(xué)以及愛丁堡大學(xué)聯(lián)合創(chuàng)建,是面向中文語言模型的綜合考試評(píng)測集,覆蓋了 52 個(gè)來自不同行業(yè)領(lǐng)域的學(xué)科。

在 AGIEval 的評(píng)測里,baichuan-7B 綜合評(píng)分達(dá)到 34.4 分,遠(yuǎn)超 LLaMa-7B、Falcon-7B、Bloom-7B 以及 ChatGLM-6B 等其他開源模型。

AGIEval 評(píng)測基準(zhǔn)由微軟研究院發(fā)起,旨在全面評(píng)估基礎(chǔ)模型在人類認(rèn)知和問題解決相關(guān)任務(wù)上的能力,包含了中國的高考、司法考試,以及美國的 SAT、LSAT、GRE 和 GMAT 等 20 個(gè)公開且嚴(yán)謹(jǐn)?shù)墓俜饺雽W(xué)和職業(yè)資格考試。

在 GAOKAO 評(píng)測中,baichuan-7B 的綜合評(píng)分達(dá)到了 36.2 分,顯著領(lǐng)先于同參數(shù)規(guī)模的各種其他預(yù)訓(xùn)練模型。

GAOKAO 評(píng)測基準(zhǔn)是復(fù)旦大學(xué)研究團(tuán)隊(duì)創(chuàng)建的評(píng)測框架,以中國高考題目作為數(shù)據(jù)集,用于測試大模型在中文語言理解和邏輯推理能力方面的表現(xiàn)。

02 MMLU 英文評(píng)估基準(zhǔn)表現(xiàn)大幅領(lǐng)先 LLaMA-7B

baichuan-7B 不僅在中文方面表現(xiàn)優(yōu)異,在英文上表現(xiàn)同樣亮眼。在 MMLU 的評(píng)測中 baichuan-7B 綜合評(píng)分高達(dá) 42.5 分,大幅領(lǐng)先英文開源預(yù)訓(xùn)練模型 LLaMA-7B 的 34.2 分以及中文開源模型 ChatGLM-6B 的 36.9 分。

MMLU 由加州大學(xué)伯克利分校等知名高校共同打造,集合了科學(xué)、工程、數(shù)學(xué)、人文、社會(huì)科學(xué)等領(lǐng)域的 57 個(gè)科目,主要目標(biāo)是對(duì)模型的英文跨學(xué)科專業(yè)能力進(jìn)行深入測試。其內(nèi)容廣泛,從初級(jí)水平一直涵蓋到高級(jí)專業(yè)水平。

03 baichuan-7B是如何打造

訓(xùn)練語料對(duì)大模型的訓(xùn)練結(jié)果至關(guān)重要。在構(gòu)建預(yù)訓(xùn)練語料庫方面,百川智能以高質(zhì)量中文語料為基礎(chǔ),同時(shí)融合了優(yōu)質(zhì)的英文數(shù)據(jù)。在數(shù)據(jù)質(zhì)量方面,通過質(zhì)量模型對(duì)數(shù)據(jù)進(jìn)行打分,對(duì)原始數(shù)據(jù)集進(jìn)行篇章級(jí)和句子級(jí)的精確篩選;在內(nèi)容多樣性方面,利用自研超大規(guī)模局部敏感哈希聚類系統(tǒng)和語義聚類系統(tǒng),對(duì)數(shù)據(jù)進(jìn)行了多層次多粒度的聚類,最終構(gòu)建了包含 1.2 萬億 token 的兼顧質(zhì)量和多樣性的預(yù)訓(xùn)練數(shù)據(jù)。相較于其他同參數(shù)規(guī)模的開源中文預(yù)訓(xùn)練模型,數(shù)據(jù)量提高了超過 50%。

在萬億優(yōu)質(zhì)中英文數(shù)據(jù)的基礎(chǔ)上,為了更好地提升訓(xùn)練效率,baichuan-7B 深度整合了模型算子來加快計(jì)算流程,并針對(duì)任務(wù)負(fù)載和集群配置,自適應(yīng)優(yōu)化了模型并行策略以及重計(jì)算策略。通過高效的訓(xùn)練過程調(diào)度通信,baichuan-7B 成功地實(shí)現(xiàn)了計(jì)算與通信的高效重疊,進(jìn)而達(dá)到了超線性的訓(xùn)練加速,在千卡集群上訓(xùn)練吞吐達(dá)到 180+Tflops 的業(yè)界領(lǐng)先水平。

同時(shí),已有的開源模型窗口長度在 2K 以內(nèi),對(duì)于一些長文本建模任務(wù),如需要引入外部知識(shí)做搜索增強(qiáng)的場景,更長的處理長度有助于模型在訓(xùn)練與推理階段捕獲越多的上下文信息,2K 的處理長度存在比較大的制約。baichuan-7B 基于高效的 attention 算子優(yōu)化實(shí)現(xiàn)了萬級(jí)別超長動(dòng)態(tài)窗口的擴(kuò)張能力,本次開源的預(yù)訓(xùn)練模型開放了 4K 上下文窗口,使模型應(yīng)用場景更加廣泛。

此外,baichuan-7B 還對(duì)模型訓(xùn)練流程進(jìn)行了深度優(yōu)化,采用了更科學(xué)且穩(wěn)定的訓(xùn)練流程和超參數(shù)選擇,使得 baichuan-7B 模型的收斂速度大大提升。與同等參數(shù)規(guī)模的模型相比,baichuan-7B 在困惑度(PPL)和訓(xùn)練損失(training loss)等關(guān)鍵性能指標(biāo)上表現(xiàn)更加優(yōu)秀。

04 免費(fèi)可商用,清華北大率先使用助力研究

秉持開源精神,baichuan-7B 代碼采用 Apache-2.0 協(xié)議,模型權(quán)重采用了免費(fèi)商用協(xié)議,只需進(jìn)行簡單登記即可免費(fèi)商用。

baichuan-7B 此次開源的內(nèi)容十分豐富,包含了推理代碼、INT4 量化實(shí)現(xiàn)、微調(diào)代碼,以及預(yù)訓(xùn)練模型的權(quán)重。其中,微調(diào)代碼方便用戶對(duì)模型進(jìn)行調(diào)整和優(yōu)化;推理代碼與 INT4 量化實(shí)現(xiàn)則有助于開發(fā)者低成本地進(jìn)行模型的部署和應(yīng)用;預(yù)訓(xùn)練模型權(quán)重開源后,用戶則可以直接使用預(yù)訓(xùn)練模型進(jìn)行各種實(shí)驗(yàn)研究。

據(jù)了解,北京大學(xué)和清華大學(xué)兩所頂尖大學(xué)已率先使用 baichuan-7B 模型推進(jìn)相關(guān)研究工作,并計(jì)劃在未來與百川智能深入合作,共同推動(dòng) baichuan-7B 模型的應(yīng)用和發(fā)展。

清華大學(xué)互聯(lián)網(wǎng)司法研究院院長、計(jì)算機(jī)系教授劉奕群認(rèn)為,baichuan-7B 模型在中文上的效果表現(xiàn)十分出色,它免費(fèi)商用的開源方式展現(xiàn)出開放的態(tài)度,不僅貢獻(xiàn)社區(qū),也推動(dòng)技術(shù)發(fā)展。團(tuán)隊(duì)計(jì)劃基于 baichuan-7B 模型開展司法人工智能領(lǐng)域的相關(guān)研究。

北京大學(xué)人工智能研究院助理教授楊耀東認(rèn)為,baichuan-7B 模型的開源將對(duì)于中文基礎(chǔ)語言模型的生態(tài)建設(shè)及學(xué)術(shù)研究產(chǎn)生重要推動(dòng)作用,同時(shí)他也表示將持續(xù)關(guān)注相關(guān)領(lǐng)域探索,并且在中文大語言模型的安全和對(duì)齊上進(jìn)行進(jìn)一步深入研究。

百川智能 CEO 王小川表示:「本次開源模型的發(fā)布是百川智能成立 2 個(gè)月后的第一個(gè)里程碑,對(duì)百川智能而言是一個(gè)良好的開局。baichuan-7B 模型,不僅能為中國的 AGI 事業(yè)添磚加瓦,也為世界大模型開源社區(qū)貢獻(xiàn)了新的力量?!?/p>

開源地址:

Hugging Face:https://huggingface.co/baichuan-inc/baichuan-7BGithub:https://github.com/baichuan-inc/baichuan-7BModel Scope:https://modelscope.cn/models/baichuan-inc/baichuan-7B/summary

標(biāo)簽:

x 廣告
x 廣告

Copyright ©  2015-2022 太平洋文旅網(wǎng)版權(quán)所有  備案號(hào):豫ICP備2022016495號(hào)-17   聯(lián)系郵箱:93 96 74 66 9@qq.com