捧起她娇臀猛烈冲刺h,久久亚洲精品无码网站,公与媳系列100小说,欧美大片18禁aaa片免费,国产成人无码a区视频,xxxx欧美丰满大屁股 free,韩国在线无码中文字幕,2021年精品国产福利在线,日本成年片黄网站色品善网

版權(quán)歸原作者所有,如有侵權(quán),請(qǐng)聯(lián)系我們

火遍全球的DeepSeek:科學(xué)家是怎么用它的?

浙江省科學(xué)技術(shù)協(xié)會(huì)
浙江科普是浙江省科協(xié)旗下官方科普賬號(hào)。
收藏

科研人員正在測(cè)試這個(gè)開(kāi)源模型執(zhí)行科研任務(wù)的能力——從數(shù)學(xué)一直到認(rèn)知科學(xué)。

DeepSeek的模型能在一個(gè)對(duì)話機(jī)器人App上使用。來(lái)源:Mladen Antonov/AFP via Getty

近日,一家中國(guó)公司推出的DeepSeek-R1讓美國(guó)股市大幅震蕩——DeepSeek-R1是一款平價(jià)但強(qiáng)大的人工智能(AI)“推理”模型。

經(jīng)過(guò)反復(fù)測(cè)試,DeepSeek-R1回答數(shù)學(xué)和科學(xué)問(wèn)題的能力與o1模型不相上下——o1是由美國(guó)加州舊金山OpenAI公司去年9月推出的一款模型,OpenAI的推理模型一直被視為行業(yè)頂尖水準(zhǔn)。

雖然R1在科研人員想嘗試的各種任務(wù)上仍力有不逮,但它讓全球科學(xué)家有機(jī)會(huì)根據(jù)其學(xué)科內(nèi)的問(wèn)題,量身訓(xùn)練定制款的推理模型。

“基于它的絕佳表現(xiàn)和低成本,我們相信Deepseek-R1能鼓勵(lì)更多科學(xué)家在日??蒲泄ぷ髦惺褂么笳Z(yǔ)言模型(LLM),同時(shí)不用擔(dān)心成本問(wèn)題?!泵绹?guó)俄亥俄州立大學(xué)AI研究員Huan Sun說(shuō),“幾乎所有從事AI的同事和合作者都在談?wù)撍??!?br /> 開(kāi)放季

對(duì)于科研人員來(lái)說(shuō),R1的平價(jià)和開(kāi)源可能會(huì)改變傳統(tǒng):使用它的應(yīng)用編程接口(API),就能以其專利競(jìng)品收取的一小部分費(fèi)用對(duì)這個(gè)模型提問(wèn);其在線對(duì)話機(jī)器人DeepThink(深度思考)的使用更是免費(fèi)。科研人員還能在自己的服務(wù)器上下載這個(gè)模型,免費(fèi)運(yùn)行和拓展模型——這些都是閉源競(jìng)品模型o1辦不到的。

從1月20日推出以來(lái),“大量研究人員”基于R1或以R1為靈感,嘗試訓(xùn)練自己的推理模型,加拿大不列顛哥倫比亞大學(xué)的AI研究員Cong Lu說(shuō)道。這從開(kāi)放科學(xué)AI資源庫(kù)Hugging Face的數(shù)據(jù)中便可看出——DeepSeek-R1的代碼就儲(chǔ)存在Hugging Face上。**在模型發(fā)布后的一周內(nèi),Hugging Face上各版本的R1下載量就超過(guò)300萬(wàn)次,**包括獨(dú)立用戶已經(jīng)擴(kuò)展過(guò)的模型。
科研任務(wù)

一些初步測(cè)試讓R1執(zhí)行數(shù)據(jù)型科研任務(wù)——這些任務(wù)選自生物信息、計(jì)算化學(xué)、認(rèn)知神經(jīng)科學(xué)等領(lǐng)域的真實(shí)論文——結(jié)果R1的表現(xiàn)與o1不相上下**,**Sun說(shuō)。她的團(tuán)隊(duì)讓這兩個(gè)AI模型完成他們創(chuàng)建的一系列問(wèn)題中的20個(gè)任務(wù),這個(gè)系列被稱為ScienceAgentBench。這些任務(wù)包括數(shù)據(jù)分析和可視化,兩個(gè)模型只能答對(duì)其中約1/3的問(wèn)題。用API運(yùn)行R1的成本只有o1的1/13,但R1的“思考”時(shí)間比o1更長(zhǎng),Sun說(shuō)。

R1在數(shù)學(xué)上也開(kāi)始嶄露頭角。英國(guó)牛津大學(xué)數(shù)學(xué)家、計(jì)算科學(xué)家Frieder Simon讓這兩個(gè)模型給出泛函分析這一抽象領(lǐng)域的一個(gè)證明,發(fā)現(xiàn)R1的證明比o1的更好。但考慮到這類模型通常會(huì)犯的錯(cuò)誤,如果想要從這些模型中獲益,研究人員本身就要具備鑒別證明水平的能力,他說(shuō)。

R1令人激動(dòng)的一大原因在于,它以“open-weight”(開(kāi)放權(quán)重)的形式公開(kāi),說(shuō)明其算法不同部分之間習(xí)得的關(guān)聯(lián)可以進(jìn)一步拓展。下載了R1或其“蒸餾”小模型(也由DeepSeek發(fā)布)的科學(xué)家能通過(guò)額外訓(xùn)練提升其能力,這也被稱為微調(diào)。如果有合適的數(shù)據(jù)集,科研人員或能通過(guò)訓(xùn)練,提高該模型在特定科研步驟編寫(xiě)代碼的能力。

能在本地系統(tǒng)下載并部署,也是R1的****加分項(xiàng) **,**Sun說(shuō),因?yàn)檫@樣科研人員就能掌控他們的數(shù)據(jù)和研究結(jié)果?!皩?duì)于涉及敏感和隱私數(shù)據(jù)的學(xué)科來(lái)說(shuō),比如醫(yī)學(xué)研究,這一點(diǎn)尤其重要?!?br /> 推理跨越

DeepSeek也攪動(dòng)了AI科研領(lǐng)域,因?yàn)樗赋隽艘粭l能優(yōu)化無(wú)數(shù)其他模型的道路,舊金山AI公司Anthropic的聯(lián)合創(chuàng)始人Jack Clark說(shuō)。

DeepSeek通過(guò)將它的“推理”能力教授給其他大語(yǔ)言模型(LLM)——如Meta的Llama,創(chuàng)建了蒸餾模型。DeepSeek在1月22日在arXiv上發(fā)布的預(yù)印本論文揭示了這背后的方法:用整理好的來(lái)自DeepSeek-R1的80萬(wàn)個(gè)逐步式“思維鏈”回答樣本,訓(xùn)練這些大語(yǔ)言模型。

“現(xiàn)在網(wǎng)上有了一個(gè)開(kāi)放權(quán)重的模型,你能用它讓其他足夠強(qiáng)大的基礎(chǔ)模型變身為一個(gè)AI推理器。”Clark在他的簡(jiǎn)報(bào)Import AI中寫(xiě)道,“全球的AI能力又向前了一步?!?/p>

科研人員還在應(yīng)用“強(qiáng)化學(xué)習(xí)”——用來(lái)創(chuàng)建DeepSeek-R1的試、錯(cuò)、賞技術(shù)——來(lái)完善它在特定任務(wù)上的應(yīng)用,Lu說(shuō)。Lu去年聯(lián)合創(chuàng)建了“AI Scientist”,這是一個(gè)能完成一整套機(jī)器學(xué)習(xí)科研任務(wù)的模型,從掃描文獻(xiàn)到創(chuàng)建假說(shuō)再到撰寫(xiě)論文。通過(guò)定義適當(dāng)?shù)摹蔼?jiǎng)賞信號(hào)”,科學(xué)家能朝著任何目標(biāo)訓(xùn)練這個(gè)模型,他說(shuō)。

但DeepSeek-R1還遠(yuǎn)談不上完美。對(duì)話機(jī)器人DeepThink在o1等大語(yǔ)言模型會(huì)“碰壁”的簡(jiǎn)單任務(wù)上也失敗了,這類問(wèn)題包括統(tǒng)計(jì)名字中含字母W的美國(guó)州的數(shù)量。Lu說(shuō):“也許有的人認(rèn)為這個(gè)模型能把水變成酒,這只是炒作,但對(duì)于其實(shí)際能力來(lái)說(shuō),它確實(shí)是最棒的?!?br /> (原文作者:Elizabeth Gibney 翻譯:施普林格·自然上海辦公室 來(lái)源:自然系列)