在线观看AV中文字幕不卡,日本中文字幕乱码视频在线,精品欧美一区二区不卡视频,亚洲日韩欧美第一区

  • <dfn id="2yums"></dfn>
  • <rt id="2yums"><abbr id="2yums"></abbr></rt>
  • 財(cái)新傳媒
    • 發(fā)表評(píng)論
    • 分享到微信朋友圈
    • 新浪轉(zhuǎn)發(fā)

    GPT革命|騰訊混元發(fā)布開源文生圖模型 采用Sora相同架構(gòu)

    文|財(cái)新 劉沛林
    2024年05月14日 21:00
    本次推出的文生圖模型是騰訊第一款開源模型
    資料圖:騰訊混元大模型logo。圖:視覺中國

      【財(cái)新網(wǎng)】騰訊大模型團(tuán)隊(duì)發(fā)布首款開源模型。5月14日,騰訊混元大模型宣布推出15億參數(shù)的開源文生圖模型,該模型采用和OpenAI于2月發(fā)布的文生視頻模型Sora相同的DiT架構(gòu)。騰訊稱,采用了該架構(gòu)的文生圖模型較前一代視覺生成在語義理解、畫面質(zhì)感和真實(shí)性等方面較大提升,整體效果提升20%。

      DiT(Diffusion with Transformer)可以簡單理解為將此前多用于文本的Transformer架構(gòu)和多用于多模態(tài)的Diffusion架構(gòu)相結(jié)合,可以實(shí)現(xiàn)更好的多模態(tài)理解能力,和更豐富的內(nèi)容生成。今年2月OpenAI率先發(fā)布了采用該架構(gòu)的文生視頻模型Sora,可生成長達(dá)1分鐘的視頻,由于其效果驚艷在業(yè)界引爆了文生視頻熱潮,國內(nèi)產(chǎn)業(yè)界也加快了將該架構(gòu)用于多模態(tài)模型能力的探索。(詳見《財(cái)新周刊|Sora再進(jìn)階》)

      推薦進(jìn)入財(cái)新數(shù)據(jù)庫,可隨時(shí)查閱公司股價(jià)走勢、結(jié)構(gòu)人員變化等投資信息。

    責(zé)任編輯:屈運(yùn)栩 | 版面編輯:李東昊
    推廣

    財(cái)新網(wǎng)主編精選版電郵 樣例
    財(cái)新網(wǎng)新聞版電郵全新升級(jí)!財(cái)新網(wǎng)主編精心編寫,每個(gè)工作日定時(shí)投遞,篇篇重磅,可信可引。
    訂閱