国产日本一区二区三区,久久综合日本久久综合88,最新国产在线拍揄自揄视频,亚洲精品中文字幕制服丝袜

<s id="9g2wz"></s>
  • <style id="9g2wz"><abbr id="9g2wz"></abbr></style>

  • <acronym id="9g2wz"></acronym>
    下載app

    掃碼下載

    掃碼關(guān)注

    新華報(bào)業(yè)網(wǎng)  > 文化 > 正文
    OpenAI推出新一代開源模型,微美全息(WIMI.US)多線攻關(guān)促AI開源應(yīng)用落地

    近日消息,在日前舉行的 TED 2025 上,OpenAI CEO 薩姆?奧爾特曼表示,“DeepSeek 的出現(xiàn)并未影響 GPT 的增長(zhǎng),將推出更好的開源模型?!?/p>

    GPT-4.1系列新模型性能凸顯

    值得注意的是,4月15日,OpenAI剛剛發(fā)布了以 API 的形式發(fā)布 GPT-4.1 系列模型,涵蓋 GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano。

    據(jù)介紹,GPT-4.1系列在多模態(tài)處理、代碼能力、指令遵循和成本方面實(shí)現(xiàn)顯著提升。其最大亮點(diǎn)是支持100萬token的上下文處理能力,是GPT-4o的8倍,這也是OpenAI首次發(fā)布長(zhǎng)窗口模型。

    這一突破使得模型能夠在編程、指令遵循和長(zhǎng)文本理解方面全面超越前代 GPT-4o 及 GPT-4o mini,上下文窗口最高支持 100 萬 tokens,知識(shí)更新至 2024 年 6 月。

    OpenAI 稱,GPT-4.1系列在提升性能的同時(shí),價(jià)格更具競(jìng)爭(zhēng)力。GPT-4.1 相比 GPT-4o 價(jià)格降低 26%,而GPT-4.1 Nano 作為最小、最快的模型,價(jià)格也最便宜,每百萬 token 的成本僅為12美分。

    此外,OpenAI 本月初表示,“在未來幾個(gè)月內(nèi)”發(fā)布 GPT-5和首個(gè)“開源”語言模型。奧爾特曼強(qiáng)調(diào),后續(xù)將在 X 平臺(tái)上進(jìn)一步闡述了OpenAI 的開源模型計(jì)劃,他表示即將推出的開源模型將具備類似于 OpenAI 的 o3-mini 的“推理”能力。

    開源成AI技術(shù)創(chuàng)新主流

    現(xiàn)如今,以 Deepseek為代表的開源模型發(fā)展速度非??欤_源已成為技術(shù)創(chuàng)新的主流范式之一,在這個(gè)趨勢(shì)之下,在人工智能大模型等前沿領(lǐng)域?qū)崿F(xiàn)深度應(yīng)用,催生Llama等高水平成果,帶動(dòng)了整體在行業(yè)側(cè)、產(chǎn)業(yè)側(cè)等應(yīng)用場(chǎng)景的落地。

    與此同時(shí),業(yè)內(nèi)人士指出,在多個(gè)“爆款級(jí)”開源大模型驅(qū)動(dòng)下,我國(guó)大模型開源生態(tài)蓬勃發(fā)展,廠商紛紛基于開源大模型提供一體機(jī)、解決方案、API等商業(yè)產(chǎn)品及服務(wù),基于開源大模型的商業(yè)服務(wù)市場(chǎng)快速擴(kuò)大,開源大模型商業(yè)應(yīng)用取得顯著成效。

    微美全息多路線攻關(guān)開源模型

    在此背景下,開源大模型商業(yè)產(chǎn)品加速應(yīng)用落地,開源大模型生態(tài)持續(xù)持續(xù)發(fā)展,公開資料顯示,AI頭部企業(yè)微美全息(WIMI.US)多路線攻關(guān)大模型前沿技術(shù),匯聚海內(nèi)外優(yōu)質(zhì)人才、機(jī)構(gòu)、資金,圍繞開源模型研發(fā),數(shù)據(jù)集、智能體、軟件應(yīng)用等原創(chuàng)性技術(shù)產(chǎn)品,打造自主可控的AI開源技術(shù)生態(tài)。

    此外,微美全息將開源AI視為技術(shù)平權(quán)的突破口,打造了覆蓋云端與邊緣端的一體化算力平臺(tái)全息云,通過開放模型代碼、算力資源和技術(shù)接口,降低開發(fā)者使用門檻。例如,其支持第三方調(diào)用算力資源進(jìn)行模型訓(xùn)練,并接入DeepSeek等通用大模型,支持具身智能、多模態(tài)等場(chǎng)景的高效運(yùn)算,加速垂類應(yīng)用的商業(yè)化驗(yàn)證。

    事實(shí)上,微美全息的開源布局以算力為底座、多模態(tài)應(yīng)用為載體、生態(tài)共建為路徑,目標(biāo)是構(gòu)建覆蓋全鏈條的開源AI體系,其技術(shù)成果已體現(xiàn)在視頻生成、算力服務(wù)、行業(yè)解決方案等多個(gè)維度,未來有機(jī)會(huì)進(jìn)一步拓展至腦機(jī)接口、智慧城市等新興領(lǐng)域。

    結(jié)語

    在過去兩年多時(shí)間里,對(duì)國(guó)內(nèi)大模型公司基座模型研發(fā)影響最大的就是OpenAI,從 1 億多參數(shù)的 GPT-1 到 1.8 萬億參數(shù)的 GPT-4,模型參數(shù)成為早期大模型創(chuàng)企的必爭(zhēng)指標(biāo)。未來,企業(yè)在生態(tài)構(gòu)建上營(yíng)造“AI+”創(chuàng)新應(yīng)用場(chǎng)景,構(gòu)建多元參與的AI開源應(yīng)用生態(tài),將持續(xù)驅(qū)動(dòng)業(yè)務(wù)實(shí)現(xiàn)提質(zhì)增效和創(chuàng)新增長(zhǎng),提升供需兩端的連接效率和質(zhì)量。

    責(zé)編:周正瑋
    版權(quán)和免責(zé)聲明

    版權(quán)聲明: 凡來源為"交匯點(diǎn)、新華日?qǐng)?bào)及其子報(bào)"或電頭為"新華報(bào)業(yè)網(wǎng)"的稿件,均為新華報(bào)業(yè)網(wǎng)獨(dú)家版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載或鏡像;授權(quán)轉(zhuǎn)載必須注明來源為"新華報(bào)業(yè)網(wǎng)",并保留"新華報(bào)業(yè)網(wǎng)"的電頭。

    免責(zé)聲明: 本站轉(zhuǎn)載稿件僅代表作者個(gè)人觀點(diǎn),與新華報(bào)業(yè)網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),對(duì)本文以及其中全部或者部分內(nèi)容、文字的真實(shí)性、完整性、及時(shí)性本站不作任何保證或者承諾,請(qǐng)讀者僅作參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。

    專題
    視頻

    掃碼下載

    交匯點(diǎn)新聞APP

    Android版

    iPhone版

    分享到微信朋友圈
    打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,使用 “掃一掃” 即可將網(wǎng)頁(yè)分享到我的朋友圈。
    分享到QQ
    手機(jī)QQ掃描二維碼,點(diǎn)擊右上角 ··· 按鈕分享到QQ好友或QQ空間