
今天,在FORCE Link AI 創(chuàng)新巡展· 廈門站,火山引擎發(fā)布豆包·圖像編輯模型3.0、豆包·同聲傳譯模型2.0,豆包大模型1.6系列全新升級(jí),滿足企業(yè)多元業(yè)務(wù)場(chǎng)景需求。面向 Agent 開(kāi)發(fā)和落地,火山引擎持續(xù)優(yōu)化AI云原生全棧服務(wù),開(kāi)源扣子核心能力,并發(fā)布企業(yè)自有模型托管方案、Responses API等多個(gè)模型服務(wù)和工具產(chǎn)品,為企業(yè)和開(kāi)發(fā)者構(gòu)建Agent、落地AI夯實(shí)基礎(chǔ)設(shè)施。
火山引擎總裁 譚待
豆包·圖像編輯模型3.0上線火山方舟
AI修圖“聽(tīng)得懂、改得對(duì)、足夠美”
AI圖像編輯能大幅提升P圖效率,但在實(shí)際應(yīng)用中常面臨三類典型難題:難以理解用戶真實(shí)需求,指令執(zhí)行不到位;誤改了不該修改的地方;輸出圖像美感不夠,AI痕跡重。
為此,火山引擎正式發(fā)布豆包·圖像編輯模型SeedEdit 3.0,具備更強(qiáng)的指令遵循能力、圖像保持能力和更強(qiáng)的圖像生成質(zhì)量。
用戶只需通過(guò)自然語(yǔ)言指令,即可完成消除多余內(nèi)容、改變光影效果、替換文字等操作。同時(shí),豆包·圖像編輯模型3.0具備對(duì)風(fēng)格、結(jié)構(gòu)與語(yǔ)義的精準(zhǔn)控制力,能夠像人類大腦一樣理解指令、深度思考,解鎖更多創(chuàng)新的修圖場(chǎng)景,例如圖像風(fēng)格轉(zhuǎn)換、變換材質(zhì)、變化人物姿勢(shì)、根據(jù)提示詞進(jìn)行推理等P圖玩法。
豆包·圖像編輯模型3.0可廣泛應(yīng)用于影像創(chuàng)作、廣告營(yíng)銷、游戲宣傳等領(lǐng)域,企業(yè)用戶可在火山方舟平臺(tái)調(diào)用該模型API,個(gè)人用戶可使用即夢(mèng)或豆包app的“豆包P圖”功能體驗(yàn)。
豆包·同聲傳譯模型2.0發(fā)布
3秒極低延遲,0樣本聲音復(fù)刻
傳統(tǒng)的翻譯系統(tǒng)通常依賴于“級(jí)聯(lián)模型”——多個(gè)模塊相互串聯(lián),依次處理語(yǔ)音識(shí)別、翻譯、聲音復(fù)刻和語(yǔ)音合成等任務(wù),翻譯結(jié)果不夠連貫、處理速度慢。
此次全新發(fā)布的豆包·同聲傳譯模型Seed-LiveInterpret 2.0,支持全雙工語(yǔ)音理解和生成框架,將傳統(tǒng)機(jī)器同傳的語(yǔ)音延遲從8-10秒降低到2-3秒,實(shí)現(xiàn)文本與語(yǔ)音的同步生成;無(wú)需提前錄制,一邊說(shuō)話一邊采樣,實(shí)現(xiàn)0樣本聲音復(fù)刻,讓同一個(gè)人同音色開(kāi)口說(shuō)外語(yǔ),帶來(lái)更沉浸的體驗(yàn)。
豆包大模型1.6系列再升級(jí)
極速版延遲低至10ms
今年6月,豆包大模型1.6系列多個(gè)模型正式發(fā)布,為企業(yè)提供多樣化選擇。此次,極速版Doubao-Seed-1.6-flash模型在保持出色的視覺(jué)理解能力的同時(shí),升級(jí)了代碼、推理、數(shù)學(xué)等大語(yǔ)言模型能力。
Doubao-Seed-1.6-flash模型,非常適合智能巡檢、手機(jī)助手、智能硬件等對(duì)模型效果、速度和成本都有要求的大規(guī)模商業(yè)化場(chǎng)景。該模型具有業(yè)界領(lǐng)先的極低延遲,TPOT僅10ms,并依然具備強(qiáng)大的視覺(jué)理解能力。
價(jià)格上,Doubao-Seed-1.6-flash在輸入文本長(zhǎng)度0-32k的區(qū)間中(企業(yè)使用量最大),每百萬(wàn)tokens輸入僅需0.15元,輸出僅1.5元。在真實(shí)的客戶案例中,該模型幫助客戶延遲下降60%,成本降低70%。
此外,火山引擎發(fā)布全模態(tài)向量化模型Seed1.6-Embedding,首次實(shí)現(xiàn)了“文本+圖像+視頻”混合模態(tài)的融合檢索,幫助企業(yè)構(gòu)建更強(qiáng)大的多模態(tài)知識(shí)庫(kù)。在權(quán)威測(cè)評(píng)榜單中,該模型包攬了多模態(tài)全面任務(wù)、中文文本的 SOTA 成績(jī)。
AI云原生全棧服務(wù)持續(xù)優(yōu)化
助力Agent開(kāi)發(fā)落地
除了更好的基礎(chǔ)模型,Agent開(kāi)發(fā)平臺(tái)和工具、支撐推理的算力基礎(chǔ)設(shè)施,同樣對(duì)構(gòu)建AI應(yīng)用至關(guān)重要?;鹕揭娉掷m(xù)優(yōu)化AI云原生全棧服務(wù),幫助企業(yè)實(shí)現(xiàn)端到端的Agent開(kāi)發(fā)和落地。
扣子核心能力開(kāi)源:在火山引擎可自動(dòng)化部署
為加速AI落地、構(gòu)建繁榮的AI生態(tài),7月26日,Al Agent 開(kāi)發(fā)平臺(tái)扣子將核心能力正式開(kāi)源。
本次開(kāi)源覆蓋扣子平臺(tái)最核心的兩個(gè)項(xiàng)目: 扣子開(kāi)發(fā)平臺(tái)(Coze Studio)、 扣子羅盤(Coze Loop),并采用沒(méi)有任何附加條件的Apache 2.0許可證開(kāi)源,用戶可在GitHub下載。
扣子開(kāi)發(fā)平臺(tái),是一站式的 AI Agent 可視化開(kāi)發(fā)工具,可快速實(shí)現(xiàn)AI Agent 的創(chuàng)建、調(diào)試和部署??圩恿_盤,可以幫助開(kāi)發(fā)者實(shí)現(xiàn) Agent 從開(kāi)發(fā)到運(yùn)維的全鏈路管理。開(kāi)源僅三天,Coze Studio在GitHub的stars數(shù)已經(jīng)破萬(wàn), Coze Loop也有3000+ stars。
火山引擎也為Coze開(kāi)源版提供了全面支持。企業(yè)AI平臺(tái)產(chǎn)品HiAgent,可調(diào)用Coze開(kāi)源版提供的智能體搭建和運(yùn)維能力,并通過(guò)共享Agent標(biāo)準(zhǔn),支持扣子開(kāi)源版智能體的納管。
火山引擎的云基礎(chǔ)產(chǎn)品,也將為扣子開(kāi)源版提供高效、穩(wěn)定、可靠的基礎(chǔ)設(shè)施支持,開(kāi)發(fā)者可以一鍵拉起資源,完成部署。
企業(yè)自有模型托管方案發(fā)布:通過(guò)火山方舟模型單元部署
針對(duì)有模型定制需求的企業(yè)客戶,火山引擎發(fā)布企業(yè)自有模型托管方案:依托火山方舟模型單元,企業(yè)無(wú)需運(yùn)維底層GPU資源,也不用進(jìn)行復(fù)雜的網(wǎng)絡(luò)和調(diào)度配置,就能在火山方舟上實(shí)現(xiàn)自研模型的全托管,并在推理服務(wù)中享受火山方舟極致的彈性算力資源,大幅降本增效。
在算力成本上,企業(yè)可以自主選擇部署方式、機(jī)型、并設(shè)置彈性規(guī)則,更精細(xì)的控制首Token時(shí)延、模型吐字延遲,且無(wú)需為業(yè)務(wù)低谷期付費(fèi),實(shí)現(xiàn)更高的資源利用效率。
此外,全托管的企業(yè)自有模型,還能享受火山方舟上的全套開(kāi)發(fā)工具、MCP服務(wù)等生態(tài)配套。目前,火山方舟模型單元已在火山方舟上開(kāi)放邀測(cè)。
Responses API上線:支持多模態(tài)Agent高效開(kāi)發(fā)
多模態(tài)模型統(tǒng)一、多模態(tài)模型API的統(tǒng)一,是當(dāng)前大模型發(fā)展的重要趨勢(shì)。為此,火山方舟平臺(tái)升級(jí)了API體系,推出Responses API。
它具備原生上下文管理能力,支持多輪對(duì)話的鏈?zhǔn)焦芾恚梢詿o(wú)縫銜接文本、圖像、混合模態(tài)數(shù)據(jù)。結(jié)合 cache 能力后,能降大幅低延遲和成本,在很多典型應(yīng)用里,整體成本下降幅度可達(dá)80%。
此外,Responses API支持自主選擇調(diào)用工具,用戶發(fā)起單次請(qǐng)求,即可聯(lián)動(dòng)多個(gè)內(nèi)置工具、自定義函數(shù)及多輪模型組合響應(yīng),解決復(fù)雜Agent任務(wù),讓Agent開(kāi)發(fā)更加省時(shí)省力。
免責(zé)聲明:市場(chǎng)有風(fēng)險(xiǎn),選擇需謹(jǐn)慎!此文僅供參考,不作買賣依據(jù)。