• <acronym id="o0060"></acronym>
  • <td id="o0060"></td>

    <table id="o0060"><ruby id="o0060"></ruby></table>
      <acronym id="o0060"><label id="o0060"></label></acronym>
    1. <table id="o0060"><ruby id="o0060"></ruby></table>

      游客發表

      率先全面開放,文心一言為何一騎絕塵?

      發帖時間:2023-09-23 12:08:37

        來源:道總有理

        連續兩天,率先半夜爆出大消息。全面先是開放大發招商華為新機深夜上線,讓芯片國產替代的文心步伐更進一步;次日晚,百度文心一言官宣向公眾全面開放——兩大勁爆消息直接點燃科技圈。何騎

        8月31日凌晨,絕塵百度官方公眾賬號即發布推文,率先稱“文心一言向全社會開放”,全面用戶可以在應用商店下載“文心一言APP”或登陸“文心一言官網”體驗。開放包括百度文心一言在內,文心一共有8個企業/機構的何騎大模型位列第一批名單,可以正式上線面向公眾提供服務,絕塵值得注意的率先是,被看作文心一言競爭者的全面阿里通義千問、360智腦、開放訊飛星火等,不在首批獲批名單中。

        隨后“文心一言APP”在各大應用商店沖上熱榜,在蘋果App Store上更是直接登頂免費榜榜首,成為當日熱門應用,這無疑讓百度再一次占得了先機。

        此前,在獲得備案審批之前,各家只能小范圍內測,用戶需要“排隊”申請內測資格,由此大大限制了大模型在用戶層面的大發招商推廣,如今大模型備案獲批和全面開放,大模型的步伐有望邁入下一階段。

        秉持著技術自主的理念,將資金大規模傾斜到自主技術研發的百度和華為,可以說是殊途同歸,而軟硬件領域的“雙子星”聯袂,共同推動技術投入走向“開花結果”。

        技術堅守,換來厚積薄發

        大模型在國內掀起新一代技術浪潮,迅速席卷了整個互聯網,而百度在大模型賽道上的步伐一直領先。2019年第一個發布了文心大模型,2023年,大廠中最早推出大語言模型“文心一言”,如今又率先獲批、得到認可,正式向全社會開放。

        百度之所以快速踩在了大模型的全球性技術風口上,是建立在百度雄厚的技術基底之上。

        早從2010年開始,百度就已經著手布局AI相關技術的研發,近十年來,累計研發投入超過 1400 億元。其中2022 年研發費用高達 214.16 億元,占百度核心收入比例達到 22.4%。與全球其他大廠相比,這些投入也是數一數二。

        在高研發成本的持續投入下,這些年從最初探索深度學習等基礎技術,到推動AI在互聯網等場景試點落地,再到如今扎根千行百業、大力推進AI工業化大生產等,百度既完成了在芯片、框架、模型和應用四層構架對應的自研技術積累,具備了做AI基礎設施供給者的前提條件,又成功引領了AI技術成果在產業層面的實踐,降低了人工智能的開發和應用門檻。

        這也使得百度無論在技術專利、技術產品還是技術應用上,都占據了領先地位。以專利來看,根據由國家工業信息安全發展研究中心、工信部電子知識產權中心發布的《中國人工智能專利技術分析報告(2022)》顯示,百度AI專利申請量1.68萬件,連續五年保持中國第一;專利授權量上,百度仍以5705件專利授權量位列第一。

        文心一言大模型,正是百度多年技術積累和產業實踐的水到渠成,而基于技術和實踐的領先優勢,文心一言問世不到半年,在國內外多家調研機構、權威媒體和高校等發布的大模型評測報告中,表現優異。

        如IDC最新發布的《AI大模型技術能力評估報告,2023》,報告顯示,百度文心大模型3.5拿下12項指標的7個滿分,綜合評分第一,算法模型第一,行業覆蓋第一。其中算法模型是大模型能力最為核心的要素,百度文心大模型在這一維度獲得了唯一的滿分。

        更令外界欣喜的是,從測評來看,百度文心一言大模型能力從5月至今不斷提升,正在逐漸趕上國外大模型。

        百度‘AI大底座’的全棧能力,助力文心一言進化

        31日凌晨全面開放后,百度文心一言APP迅速飆升至蘋果商店免費榜榜首,成為首個登頂應用商店榜首的中文AI原生應用。

        用戶的反響,透露出他們對文心一言表現出的強勁進化能力的期待。自今年3月發布至今,文心一言快速成長,熟練掌握的創作體裁超過200個,內容豐富度是發布初期的1.6倍,思維鏈長度是初期的2.1倍,知識點覆蓋達到初期的8.3倍。在一些公開測評中,文心大模型3.5版支持下的文心一言中文能力突出,甚至有超出GPT-4的表現。

        這很大程度上得益于百度飛槳,百度擁有自研的深度學習平臺飛槳,它有力支撐了大模型的高效訓練和推理。通過飛槳端到端自適應混合并行訓練技術以及壓縮、推理、服務部署的協同優化,文心大模型訓練速度達到原來的3倍,推理速度達到原來的30多倍。

        飛槳和文心一言,一個是框架平臺,一個是大模型,這兩者之間正好處在人工智能技術體系里面很重要的兩層,它們之間有很強的協同優化潛力,由此飛槳領先的訓練技術,能夠優化大模型的訓練效率。

        百度不單單在框架層和模型層擁有關鍵技術。進入人工智能時代,IT技術的技術棧發生了根本性變化,從過去三層轉變為“芯片-框架-模型-應用”四層,百度則是全球為數不多、進行全棧布局的人工智能公司。從高端芯片昆侖芯,到飛槳深度學習框架,再到文心預訓練大模型,及搜索、智能云、自動駕駛、小度等應用,各層都有領先業界的關鍵自研技術。

        如框架層上,百度從2016年就開源了飛槳深度學習框架,目前這一框架已經集成了深度學習核心訓練和推理框架、基礎模型庫、端到端開發套件等工具組件,在中國市場份額中排行第一。

        全棧布局的優勢在于,可以在技術棧的四層架構中,實現端到端優化,大幅提升效率,飛槳和文心一言的優化,就是最典型的例子。另外,芯片、框架、大模型和終端應用場景,也可以形成一個高效的反饋閉環,幫助大模型不斷去調優迭代,越做越好。

        比如文心一言與搜索、信息流等應用層的協同。百度的搜索服務,每天響應幾十億次真實的用戶使用需求,每天進行1萬億次深度語義推理與匹配,能夠提供最真實、最及時的反饋,從而倒逼大模型、深度學習框架和芯片的優化。相對地,文心一言應用于搜索,也將帶來搜索的變革。

        除了全棧自研的‘AI 大底座’,百度智能云推出的兩大AI工程平臺—‘AI 中臺’和‘百度百舸· AI 異構計算平臺’,也分別在開發和資源層面進行提效,加速訓練過程。這給文心一言的成長提供了最堅實的技術支撐,也成為其追趕國外大模型的底氣。

        核心能力升級,百度加速大模型落地時代到來

        5月底舉行的2023萬象·百度移動生態大會上,百度搜索宣布“AI伙伴”開始內測。這款全能的“Al伙伴”能夠聽懂用戶的任何問題,并用語音進行互動,還能幫助用戶標記答案中的重點,提供權威的來源。在演示中,“Al伙伴”完整地提供了一篇人工智能大會主持詞。

        百度旗下各類用戶側產品正在利用大模型進行重構,而基于大模型基座和云平臺進行開發生態的建設也在同步推進。前不久,百度承辦的2023 WAVE SUMMIT上,推出了“超級助理”和“Comate X智能編程助手”。

        理解、生成、邏輯和記憶,構成了一個人工智能或者通用人工智能系統最基本的能力,從文心一言在C端及B端應用上的表現來看,這四大核心能力正在快速提升,而背后展示出的則是百度在知識增強、檢索增強、對話增強方面的關鍵技術能力和差異化優勢。

        龐大的知識圖譜和搜索基礎上對真實數據和用戶需求的理解,是百度多年來構建技術護城河和打造內容生態的基礎,因而作為百度自主研制的知識增強大語言模型,文心一言在知識增強和檢索增強方面天然具有優勢。

        據悉,百度文心大模型擁有世界上最大規模知識圖譜,包含50億實體、5500 億級事實,每天調用量超過400億次。

        在對話增強方面,百度深耕對話技術多年,前不久,王海峰帶領團隊完成的‘知識與深度學習融合的通用對話技術及應用’成果,榮獲了‘2022 年度吳文俊人工智能科技進步獎特等獎’,這是該獎項設立以來頒發的首個特等獎。對話技術所涉及的記憶機制、上下文理解和對話規劃能力,能夠幫助文心一言實現更好的對話連貫性、合理性和邏輯性。

        百度已經構建了面向中文、服務應用、富含知識的多樣化訓練數據,并建立起人類反饋、獎勵模型和策略優化之間的飛輪機制,隨著真實用戶的反饋越來越多,文心一言的效果會越來越好,能力也越來越強。

        而今,文心一言率先面向用戶全面開放,也就說未來能獲得更海量的真實世界中的人工反饋,這將進一步改進基礎模型,助力文心一言加速迭代、提升能力。而且,對用戶層面的放開,會刺激大模型競爭焦點轉向應用層,激起應用開發的創造活力,基于文心一言的領先,百度未來或將率先帶來殺手級應用,真正引領大模型進入落地時代。

        這亦是用戶想從這場技術性浪潮看到的,彎道超車,占領新一代技術變革的制高點。

      海量資訊、精準解讀,盡在新浪財經APP

      責任編輯:尉旖涵

        熱門排行

        友情鏈接

        久久精品免费一区二区喷潮
      • <acronym id="o0060"></acronym>
      • <td id="o0060"></td>

        <table id="o0060"><ruby id="o0060"></ruby></table>
          <acronym id="o0060"><label id="o0060"></label></acronym>
        1. <table id="o0060"><ruby id="o0060"></ruby></table>