
6月21日,北大光華管理學院聯合騰訊,宣布升級“數字中國筑塔計劃”,共同推出“企業管理者人工智能通識課”系列課程,助力企業創始人和管理者擁抱AI。在第一課上,騰訊集團高級執行副總裁、云與智慧產業事業群CEO湯道生,簡要回顧AI的歷史,系統詮釋了大語言模型推動的技術變革,行業落地的挑戰與應對,以及企業擁抱大模型的基本準則。
湯道生回顧了AI發展的歷史,表示算法創新、算力增強、開源共創三大因素的疊加,構成了AI的“增長飛輪”。
大模型的快速進步,推動我們正在進入一個被AI重塑的時代。湯道生表示,大模型只是起點,未來,應用落地的產業變革是更大的圖景。企業過去的研發、生產、銷售、服務等環節中,有很多依賴人來判斷、協調與溝通的地方,今天都值得去看看,哪些環節可以疊加AI的生產力,來提質、降本與增效。
“AI對世界的改變,一定是通過與產業融合實現的。機器決策、自主生成、自然交互等一系列變革,將推動產業實現更高效率、更低成本、更好體驗和更大創新。未來的企業,也將向智能原生進化。”
以下為演講湯道生全文: 大家好!非常高興參加今天的發布會,一起探討產業智能化升級。隨著大語言模型的發展,我們正在進入一個被AI重塑的時代,從生產銷售、組織人才,到產業革新、社會發展,都會發生劇烈的變化。
許多企業管理者也在思考,如何把大模型技術應用到自己企業場景中,比如在客服與營銷環節,為業務經營帶來更多降本增效?如何在使用大模型時,保護企業數據的產權與隱私?如何降低大模型的使用成本?這些都是企業管理者需要考慮的現實問題。
今天,我們和北京大學光華管理學院攜手共建的“企業家人工智能通識課”,就是期望能夠幫助大家,在前沿技術理解、公司組織變革、商業模式驗證、模型實際落地等重要問題上,一起尋找新的解題思路。
在這里,我也分享一些對人工智能和產業融合的想法,跟大家探討,如何以AI驅動產業變革。
我想從四個部分,分享一下自己的觀察和看法,包括AI的歷史、技術現狀、產業落地和帶給我們的挑戰。我先從技術發展的角度,回顧一下AI發展史,這會幫助我們更好的理解人工智能的現狀和未來發展。
一、人工智能發展歷程 1950年,人工智能之父圖靈在論文中,提出了一個關鍵問題:“機器是否可能具有人類智能?”由此誕生了“人工智能”的概念。
人工智能究竟是什么?它是一門研究、開發,如何模擬、擴展人的智能的科學。包括機器人、語言識別、圖像識別、自然語言處理等方向。
簡單說,就是研究怎么讓機器和人一樣,會聽會說,會看,會思考,可以行動。其中尤其重要的一個方面,是讓機器掌握語言,從理解、學習,到生成表達,這也是今天,GPT-4這樣的大模型所表現出來這種“超能力”。
語言是人類思維最重要的載體,《人類簡史》作者尤瓦爾(Yuval)甚至說,通過掌握語言,人工智能已經破解了人類文明的操作系統,掌握了通往未來的“萬能鑰匙”。
過去40年,AI發展不斷加速。也有一些大眾熟知的標志性事件,比如,IBM的專用超算機深藍,在1995年,通過窮舉棋盤上所有可能性,奪得國際象棋世界冠軍。2016年,AlphaGo結合深度學習與強化學習,在圍棋上打敗李世石。還有AlphaFold對生物科學的貢獻,把蛋白質的折疊做到非常高的精度。再到最近讓大眾風靡的ChatGPT、GPT-4,文生圖技術Midjourney、StableDiffusion等等。
這些事件的背后是底層技術,特別是神經網絡的持續突破。1986年,深度學習之父杰弗里·辛頓(GeoffreyHinton)發明反向傳播算法,奠定了現代機器學習,用數據來訓練神經網絡的理論基礎。
神經網絡計算模型的原理,是通過模仿人腦構建人工神經元模型,以多層架構,層層抽象。
隨后,模型架構不斷創新,比如卷積神經網絡、循環神經網絡等,帶來了深度學習的大發展。最近一次重要的突破是2017年,Google多名研究員發布了一篇開創性的論文《Attentionisallyourneed》,提出Transformer架構,以自注意力來表達序列中每個單詞的關聯,今天包括GPT在內的AI模型,都是在這個Transformer通用框架上衍生而來。
AI的發展,除了底層技術,還要受到算力等因素的限制。神經網絡的訓練非常消耗算力,在80年代,計算機能力僅能支撐淺層神經網絡,當時一個較為典型的神經網絡只有1960個參數,連最簡單的文字識別基本都無法完成。哪怕到了2000年代初,算力仍然是瓶頸,可供訓練的在線數據也不足。
到了最近20年,硬件算力不斷提升。一方面,摩爾定律讓芯片計算能力持續翻翻;另一方面,高速網絡與分布式計算技術,也讓計算機集群規模不斷擴大。2000年代中,英偉達打造了CUDA,把GPU變得更通用與可被編程,一下從圖形渲染,延展到科研超算領域。基于不同的設計理念,GPU重點攻克并發的向量計算,單個GPU的算力,比過去基于CPU的算力多了一千倍。加上互聯網的高速發展,快速增加了可訓練的數據,讓神經網絡可以做到更大、更深、更多參數、更復雜的模型結構,由此誕生了千億級以上參數的大模型。
此外,全球產學研力量,攜手開源共創,也是人工智能快速突破的重要因素。無論是科研論文、數據集、模型算法,還是軟件平臺,一代一代的人工智能科學家,都無私的開放自己的研究成果,讓后來者能在前人的基礎上不斷前進。
在開源軟件方面,全球高校與科技企業,都為開發者貢獻了多種AI訓練與推理框架,還有大量數據處理工具。
到今天,大量各類預訓練的開源模型,都能從huggingface、github等平臺下載,讓全球研究人員可以在各種開源模型上搭建服務,與優化出更好的模型。
開源共創、算法創新、算力大幅增強,這些因素疊加,構成了AI的“增長飛輪”。GPT-4、PaLM2、LLaMa等大模型的問世,讓大家看到了通用人工智能的曙光。
二、大模型推動智能變革 如果說,大語言模型已經涌現出一定的智能現象,也就應該能產生出,在訓練數據中從來沒有出現過的新組合內容。
通過這個畫畫的案例,我們可以看到現在的AI大模型處理問題的方式,不再是靠完整的保存與復制,而是通過理解指示后,把訓練過的知識重新組合生成的。
可以看出,大模型可以按照指令,逐步畫圖,比如,用字符來畫一個人出來。其中用字母O表示臉,用字母Y表示軀干,再用H表示雙腿。第一次畫的并不理想,但可以根據反饋,調整身體、手的比例,給小人穿上衣服。是一個不斷反饋和調整的過程。
另一方面,著名的圖靈測試,就是在對話中能否識別出對方是人還是AI,在今天已經不足以評估人工智能的智能程度。
如果做題考分是評估人的智能最直接的工具,那么大語言模型在語言理解與邏輯推理能力上,已經超過了平均人類的水準。
在編程領域,GPT-4參加了亞馬遜的模擬技術考試,拿到了滿分,這個考試規定的時長是兩小時,它只用了不到4分鐘。在美國GRE和生物奧林匹克競賽考試當中,GPT-4也超過99%的人類;模擬律師資格考試的成績,大約是前10%。此外,谷歌的Med-PaLM2,也在美國醫療執照考試中達到了專家水平。
最近,OpenAI又給ChatGPTAPI增加了函數調用能力,這意味著大模型也能使用工具了。自己不具備的能力,可以靠各種第三方服務嘗試解決,大大增加了通用大模型解決問題的能力。
大語言模型代表人工智能的發展,已經達到了一個新的高峰,有卓越的語言理解、強大的邏輯推理與溝通能力,能帶入角色,主動思考。
用大量數據預訓練的模型也推動機器視覺、語音識別、機器人等AI能力發生新的突破。通過對機器想、聽、看、動等能力的整合,AI也將真正成為人們的工作和生活助手。
首先,基于多模態的大模型,計算機視覺從“能看”到“看懂”。
在銀行業務中,要處理很多的回單、發票、申請書、業務郵件等數據,例如我們合作的一家商業銀行,在資產托管業務中,每天需要處理1萬多件郵件和傳真。來自投資、保險、融資等等不同的業務系統,內容有票據、證件照片等等,多種樣式。靠人工處理,錄入系統,費時費力,就需要借助更智能的機器識別。
在傳統的算法模型下,需要輸入2千張的單據,機器才能識別一種單據,也沒有整理成表格或者標簽的能力。
現在,基于大模型能力,我們的TI-OCR只需要50張被標注的單據,就可以快速識別一種類型的單據。同時可以根據分析能力,自動提煉核心標簽,生成電子數據文件,進行后續的商業分析。
大語言模型不僅懂多種人類語言,還掌握多種程序語言,還可以幫助程序員寫代碼。
我們也打造了騰訊云新一代AI代碼助手,實現AI對代碼的理解,輔助程序員編寫、排錯與測試,為軟件研發的全流程助力,提高開發效率與代碼質量。
這是上周新發布的一段視頻。騰訊RoboticsX機器人實驗室的機器狗Max,能力又升級了。大家可以看到,兩只機器狗正在進行一段障礙追逐賽,把他們隨機放到場地中,一個追,一個躲,還有一面隨機出現的旗子。躲的機器狗,要努力在不被抓到情況下,摸到旗子,摸到旗子后,角色調轉。
在這個過程中,兩只機器狗要實時的根據對方的行動,判斷自己的行為,同時還要惦記著目標,也就是碰到旗子,或者抓住對方。同時,在碰到旗子后要馬上修正自己的策略。
通過這個視頻,我們能看到,機器狗的行動,也因為預訓練AI模型和強化學習的加入,具有了更好的靈活性和自主決策能力。
大語言模型不僅能與人溝通,更重要的是通過模型的精調,可以按需求產生一系列的執行步驟,比如聯網調用不同插件的能力,加上多模態讓AI同時能看懂圖,聽懂話,會規劃,能行動,這樣就可以做出更強大的應用,讓AI更像真正意義上的智能助手,完成更高級的任務。
比如,線上廣告投放員,每天需要刷新大量廣告素材,確保廣告投放的ROI,如果結合廣告效果數據與文生圖能力,可以不斷地根據數據分析,生成投放策略,調整投放渠道,并且針對性的生成投放素材,自動化程度與效率都會更高。
三、企業擁抱大模型的方式和路徑 這么多變革匯聚在一起,也意味著海量的創新即將爆發。大模型只是起點,未來,應用落地的產業變革是更大的圖景。
事實上,不管哪個行業,都應該積極擁抱AI,過去的研發、生產、銷售、服務等環節中,都有很多依賴人來判斷、協調與溝通的地方,今天都值得我們去看看哪些環節,可以疊加AI的生產力,來提質、降本與增效。
目前,海外一些大型企業,已經開始投資及采用大模型技術。比如,摩根士丹利直接接入GPT-4,用它整合、解析,海量的投資策略和市場研究報告,給投資顧問提供直接的參考。
根據自媒體《量子位》的分析,我們可以看到,生成式AI(AIGC)對不同行業的影響程度與接受程度。圖中能看到,內容與電商產業受到影響最明顯,像文生圖的技術,將會大大改變內容制作的流程與成本。
既然大模型這么重要,在座的企業家與管理者,可能也會問,我們如何把它用在企業上,抓住技術變革的紅利?
我可以給企業管理者一些建議:
第一,聚焦企業自身業務,挑選具體場景,讓AI成為服務的增量。
第二,確保訓練數據質量,梳理出測試用例,建立上線評估流程。
第三,確保服務合規,同時關注數據的產權與隱私。
第四,使用云廠商工具,搭建一體化的模型服務,這樣效率比較高,節約訓練、運維的成本和時間。
在具體實施中,模型、數據和算力是大家需要格外關注的三個點。
首先是模型。雖然大家對通用大語言模型的聊天機器人期待很高,但它不是唯一的大模型服務方式,也不一定是滿足行業場景需求的最優解。
目前,通用大模型一般都是基于廣泛的公開文獻與網絡信息來訓練的,上面的信息可能有錯誤、有謠言、有偏見,許多專業知識與行業數據積累不足,導致模型的行業針對性與精準度不夠,數據“噪音”過大。但是,在很多產業場景中,用戶對企業提供的專業服務要求高、容錯性低,企業一旦提供了錯誤信息,可能引起巨大的法律責任或公關危機。因此,企業使用的大模型必須可控、可追溯、可修正,而且必須反復與充分測試才能上線。
我們認為,客戶更需要有行業針對性的行業大模型,再加上企業自己的數據做訓練或精調,才能打造出實用性高的智能服務。企業所需要的是,在實際場景中真正解決了某個問題,而不是在100個場景中解決了70%-80%的問題。
另外,訓練數據越多,模型越大,訓練與推理的成本也越高。實際上,大部分的企業場景,可能也不需要通用AI來滿足需要。因此,如何在合理成本下,選擇合適的模型,是企業客戶所需要思考與決策的。
其次,數據是大模型的原材料,針對具體場景,相關數據的覆蓋與質量都是至關重要,標注數據的管理也是模型迭代中的重要工作。
模型最終要在真實場景落地,要達到理想的服務效果,往往需要把企業自身的數據也用起來。在模型研發過程中,既要關注敏感數據的保護與安全合規,也需要管理好大量的數據與標簽,不斷測試與迭代模型。
再次,算力是模型持續運轉的基礎,高性能、高彈性和高穩定的算力,需要借助專業的云服務。
在大模型的訓練和使用過程中,需要大量異構算力的支持,對網絡速度與穩定性要求也很高,加上GPU服務器比一般服務器穩定性更低一些,服務器的運維、問題的排查更頻繁,整體運維的難度與工作量會高很多。在訓練集群中,一旦網絡有波動,訓練的速度就會受到很大的影響;只要一臺服務器過熱宕機,整個集群都可能要停下來,然后訓練任務要重啟,這些問題會使得訓練時間大大增加,投入在大模型的成本也會飆升。
基于這些企業現實問題和需求的思考,就在前兩天,騰訊也正式公布了騰訊云MaaS服務全景圖。
基于騰訊云TI平臺打造的行業大模型精選商店,將覆蓋金融、文旅、政務、醫療、傳媒、教育等10大行業,提供超過50個解決方案。在這些能力模型基礎上,伙伴們只需要加入自己獨有的場景數據,就可以快速生成自己的“專屬模型”。
我們也推出基于騰訊云TI平臺的,行業大模型精調解決方案。幫助模型開發者與算法工程師,一站式解決模型調用、數據與標注管理、模型精調、評估測試與部署等任務,減輕創建大模型的壓力。我們也可以通過TI平臺,實現模型的私有化部署、權限管控和數據加密等方式,讓企業用戶在使用模型時更放心。
比如,我們和國內的頭部在線旅游公司,基于“文旅大模型”,打造了機器人客服,可以自動判斷用戶意圖,并自動調用相應的API,高質量完成用戶咨詢及服務。
假如一個用戶問“端午節三天不出江浙滬,有什么行程推薦,應該怎么安排?”如果是基于通用大模型的客服機器人,只能給出一些簡單的景點介紹和路線規劃。
但當我們加入行業數據,進行模型精調之后,客服機器人的回答變得更加細致,能夠規劃出每天的交通、景點安排,包括不同檔次的酒店推薦、介紹,甚至可以直接提供預訂鏈接,平臺優惠券信息。智能客服系統,不僅可以實現人性化的服務體驗,也具備了更強的銷售轉化能力。
在算力服務上。騰訊云所提供的穩定計算、高速網絡與專業運維,可以為算法工程師大大減輕設備運維的壓力,讓他們把精力放在模型的構建與算法的優化上。
騰訊云也打造了面向模型訓練的新一代HCC(High-Performance Computing Cluster)高性能計算集群,搭載最新次代GPU,結合多層加速的高性能存儲系統,加上高帶寬、低延遲的網絡傳輸,整體性能比過去提升了3倍,獲得了很多客戶的高度認可,幾家大模型獨角獸,都與我們展開了算力的合作。
在計算集群的“硬實力”之外,我們最近也推出了更適合AI運算的“軟能力”——向量數據庫,它能更高效地處理圖像、音頻和文本等非結構化數據,支持單索引10億級規模,比單機插件式檢索規模提升10倍,數據接入AI的效率,也比傳統方案提升10倍。
四、AI發展的挑戰和應對之策 AI價值巨大,發展速度驚人,但從社會的層面,我們也要注意,帶來的風險與挑戰。
最近,杰弗里·辛頓(GeoffreyHinton)因為擔心AI無法控制,離開了谷歌,他在接受采訪時提到:人工智能的信息架構可能比人腦的信息架構更強大。
人類大腦中大概有860億個神經元,這些神經元之間形成了大概100萬億個連接。雖然GPT4的參數沒有披露,但普遍估算參數量只有人腦神經元連接的百分之一,大概是5000億到1萬億。
但GPT4裝載的知識卻是普通人的千倍萬倍,學習效率也更高。這說明,在某程度上,當前的神經網絡可能比人腦擁有一個“更優”的處理信息的架構與學習算法,一旦得到足夠算力來訓練,就可以更快速地學習大量信息與知識。
還有一點值得一提,AI通過在線連接,就可以把模型下載與復制,在相對短時間內,就讓一臺新機器復制好海量的知識,而且各自學習不同知識后還可以相互同步。而人類的知識和智慧傳承,必須通過復雜多變又不太精確的語言,作為傳遞信息的媒介,每個人的培養幾乎是從0開始(除了基因中hardcode的記憶),都需要從小開始,花數十年時間來學習,花數十年來積累經驗。
AGI強大且不斷泛化的能力,讓很多人都非常擔心,人類會逐漸失去對AI的控制。尤其AGI能聯網,能編程,能操控其他系統(因為可以調用其他系統的API),讀懂人(因為模型里導入大量書籍,了解人類千年文明發展歷史,了解人們的思考方式與弱點,每天還跟很多人互動,甚至交流情感),它掌握語言(因此可以影響人的思考與行為),它能產生圖與視頻(因此可以讓人產生視覺錯覺),可能還有更多能力我們還沒發現。
因此Hinton也提出,AI對人類產生四重威脅。他不惜從工作了10年的谷歌離職,推動大眾對人工智能潛在風險的關注,并建立安全使用AGI的規范。
面對人工智能帶來的各種問題,還有很多值得思考的東西。包括人類發展、倫理、教育等等。
這些問題,相信我們在座每一位,都有自己的思考。但是有一點我想講的是,技術的發展、演進、變化,總是超出人的想象,而人類擁抱變化的勇氣,創新的智慧,化挑戰為機遇的能力,也往往超出我們自己的想象。就像工業革命早期,也有過對于農村經濟瓦解、工人生存狀況堪憂等等情況的擔心,但是,最終我們以人類特有的方式,走了過來,并且讓全人類的生產效率、生活質量以幾何指數飆升。
毫無疑問,AI對世界的改變,一定也是通過與產業的融合實現的。機器決策、自主生成、自然交互等一系列變革,推動產業實現更高效率、更低成本、更好體驗和更大創新。未來的企業,也將向智能原生進化。
面向未來,騰訊也愿意持續貢獻自己的能力,以開放的心態和無窮的好奇心,和各位專家學者、企業管理者一起,共同探索、創新,擁抱智能時代的新機遇。