2024-11-14 01:32:39 1
面對全球性的大模型狂熱,究竟是一場新的技術革命,還是新一輪泡沫的靈魂拷問。
百度再次將答案指向應用——“沒有構建於基礎模型之上的、豐富的AI原生應用生態,大模型就一文不值。”
11月12日,本次百度世界2024大會主題為應用來了,李彥宏在1小時的演講中,提了42次應用,他認為,“依託檢索增強(RAG)技術,大模型會利用檢索到的資訊來指導文字或答案的生成,從而極大地提高了內容的質量和準確性。”基於此,李彥宏感受到過去24個月AI行業最大的變化是“大模型基本消除了幻覺”——這也是應用爆發的基礎。
基礎模型能力就位的情況下,他觀察到應用層的真需求逐漸爆發:
截至11月初,百度文心大模型的日均呼叫量超15億,相較5月披露的2億,增長7.5倍,相較一年前首次披露的5000萬次,增長約30倍。
在產業端,百度智慧雲已經擁有中國最大的大模型產業落地規模,超過六成的央企和大量的民營企業,正在聯合百度智慧雲進行AI創新。百度智慧雲千帆大模型累計幫助使用者精調了3.3萬個大模型,開發出了77萬個企業級應用。
實際上,百度在應用上的態度始終較為激流勇進,在去年的百度世界大會上,李彥宏就喊出:“百度要做第一個把所有現有產品都進行重構、重做的公司。”
今年的大會,百度在應用上的佈局變得更為大膽。
你似乎很難將大膽與百度這家公司聯絡起來,但鐵了心要做應用的百度也顯露了一些與以往不同的端倪。
用AI重構產品矩陣只是第一步,一些大刀闊斧的變革正在發生。
最大變數?
這樣的變化,發生在百度的“基本盤”——搜尋業務上。
作為PC時代的搜尋巨頭,百度在AI搜尋應用上的動作一直備受關注。隨著戰火逐漸燒到AI搜尋,百度也坐不住了。
目前,百度搜尋引擎總搜尋量的18%都是由智慧問答的快思考方式回答,也就是說每天呼叫百度AI搜尋的次數已經過億。
智慧問答的快思考主要針對答案明確的簡單問題,例如:百度大會舉行幾年了?
百度搜尋向虎嗅透露,近日,百度在AI搜尋上開闢更多新路徑——內測了慢思考模式的深度推理搜尋。
這一模式支援更加複雜、需要結合全網資訊進行推理整合的問題,比如:總結下國產新能源車近兩年的發展趨勢是什麼樣的?
目前,OpenAI的O1、Kimi的探索版都採用了這種應用思維鏈的深度推理搜尋能力,據某國產六小虎AI公司高層透露,目前國內有更多廠商都在投入這一路線。而百度的優勢在於它積累的使用者資料,以及全網幾十億的搜尋溯源庫。
同時,作為分發入口,百度也在將更多其他AI應用接入搜尋。比如背靠百度搜尋獲得流量的智慧體平臺——使用者能夠透過百度搜尋場景,直接進入智慧體觸發對話。
而在業內非常關注的AI搜尋成本方面,百度移動生態事業群組(MEG)搜尋平臺負責人肖陽曾告訴虎嗅,單看搜尋一項,基於文心一言實現“極致滿足、推薦激發、多輪互動”的搜尋成本沒有那麼可怕。相對於普通搜尋,融合了生成式AI的搜尋在成本方面只是“略高”。
極限求變
另外,在C端應用方面,百度也在AI重構產品基礎之上,探索更多的可能。
這裡我們以李彥宏所展示的的工具智慧體——“自由畫布”為例,它的形態相較去年,更偏向探索新的應用邊界。
實際上,去年它的採用的仍是行業主流AI原生應用的產品形態——對話方塊互動,使用者透過輸入不同的指令,生成所需的AIGC內容。這裡所支援的內容可以是影片、文件、圖片。
今年的“自由畫布”不再是對話方塊形式,而是支援相容不同模態限制的一張畫布,使用者可以將影片、文件、圖片等各種不同模態的檔案同時拖拽到畫布中,生成使用者所需要的內容。
高自由度還體現在,使用者可以標記出所需要文件素材中的某幾句話,輸入更加準確的指令,比如“這段文字重新寫成更嚴肅的風格”或者“這段話保留在報告中”。
百度副總裁,百度事業部、網盤事業部負責人王穎向虎嗅透露,該產品的設計理念源於兩個階段。
一是2023年3月份重構應用時,她就在思考文庫作為內容創作(輸入)的起點,該做成什麼樣的形式,那時她發現問題在於各種編輯器都存在於不同的平臺,因此逐漸開始有了做更加融合的跨模態產品形式的想法。
二是24年3月份時,開始從輸入、處理、輸出三個維度來同時考慮,產品形態也更為清晰——在這個平臺上讓使用者可以輸入輸出任何格式的內容。
文庫偏向創作、編輯等內容生產端,網盤側重分享、儲存等內容消費端,這兩種形式天然就形成內容創作的閉環鏈路。
所以他們決定將百度文庫與網盤融合,來打通文庫公域資料與個人授權的網盤私域內容的壁壘,實現內容創作和消費的閉環。
變革之後,王穎發現,他們“已經實現了一個全新的內容作業系統。”
極限求變之下,目前百度文庫月活已經超過7000萬,在國內AI應用月活排名第一,百度文庫AI產品負責人鍾昊表示,截至 2024 年 10 月,文庫的AI 使用者數累計超過 2.3 億。
不要超級應用?
雖然業界探討AI超級應用的聲音一直沒變,但李彥宏卻表示“百度不是要推出一個‘超級應用’,而是要不斷地幫助更多人、更多企業打造出數百萬‘超級有用’的應用。”
同時,百度釋出基於大模型的100大產業應用,它涵蓋了製造、能源、交通、政務、金融、汽車、教育、網際網路等眾多行業
對此,百度智慧雲事業群總裁沈抖的判斷是“AI應用正率先在B端爆發”。
百度智慧雲技術委員會主席孫珂告訴虎嗅,應用層的優勢,還體現在百度上下層銜接和基礎設施支撐上,“我們一直提倡的是從底層晶片層、基礎雲設施、平臺,應用四層架構完全打通,客悅等應用基本上是基於包括百舸、千帆等底層平臺搭建的,這是我們的基本邏輯。”
在底層算力方面,隨著“暴力美學”大模型的算力要求已衝破十萬卡門檻,百度也提前佈局,是行業內最早打磨10萬卡叢集能力的廠商之一。
百度AI計算部負責人王雁鵬告訴虎嗅,雖然大模型創企 只有少數的一兩家需要十萬卡,但他們對成本有很高訴求。十萬卡的意義在於,透過跨地域的RDMA的技術、多芯混訓技術、容錯技術的技術儲備,可以提供更好的雲平臺。整體雲的成本下降了,就可以給客戶更好的算力供給。
本站內容由互聯網用戶自發貢獻,該文觀點僅代表作者本人。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如發現本站有涉嫌抄襲侵權/違法違規的內容,請發送郵件至舉報,壹經查實,本站將立刻刪除。