歡迎光臨
每天分享高質量文章

打破慣用正規化,以數學與統計構建新一代人工智慧方法論

當前人工智慧面臨如下重大的理論挑戰:可計算性、可解釋性、泛化性,以及穩定性。圍繞這些基礎問題,北京智源人工智慧研究院從數學、統計和計算的角度,設立了 “人工智慧的數理基礎”重大研究方向,併在該方向首先啟動了三方面研究(可解釋性的新型人工智慧模型,新型的機器學習演演算法,深度學習的基礎理論),以期打破基於計算機實驗和神經科學的人工智慧的慣用建模正規化,建立以數學與統計理論為第一原理的新一代人工智慧方法論。


2019 年 5 月 9 日,由北京智源人工智慧研究院(Beijing Academy of Artificial Intelligence,BAAI)主辦的“智源論壇——人工智慧的數理基礎”系列報告第一場開鑼(參與5 ⽉ 13 ⽇及 16 ⽇的後續論壇,請關註文末資訊)。

北京⼤學教授 夏壁燦

上午 9:00,本次論壇在北京⼤學教授、智源研究項⽬經理夏壁燦的主持下正式開始。活動伊始,智源研究院副院長劉江代表主辦方致辭,在介紹中他重點強調了支援科學家勇闖人工智慧科技前沿“無人區”的智源學者計劃,以及智源與北京優勢高校院所和骨幹企業共建聯合實驗室,開展跨學科、大協同創新攻關所開展的工作。

北京智源人工智慧研究院副院長 劉江

論壇當日,包括北京⼤學副教授董彬、北京⼤學研究員林偉、北京⼤學副教授邵嗣烘、北京應⽤物理與計算數學研究所副研究員王涵,以及北京⼤學教授張志華在內的五位學者分享了他們在人工智慧數理基礎領域的研究探索——當數學撞上人工智慧,當純粹的數學思維來求解智慧,又會得到怎樣的意外之喜?下麵就帶你一站式回顧此次論壇的“重點筆記”。

 

董彬:走出牛頓的蘋果園,從大量資料中推出科學規律

 

北京大學副教授 董彬

作為青年千人計劃⼊選者、國內影象處理領域⻘年學術帶頭人,北京大學的董彬副教授還建立了影象科學兩大數學方法的聯絡,併在數學領域頂級雜誌 JAMS 上發表論文。他此番率先帶來了《Bridging Deep Neural Networks and Differential Equations for Image Analysis and Beyond》主題報告,探討數值微分程啟發深度學習建模,即如何在深度神經網路和微分方程之間建立聯絡,重點圍繞其團隊近兩年的研究成果展開分享。從應用或計算數學的角度來來理解深度學習,希望架起這個橋梁之後可以給網路構架的設計,以及一些理論相關的研究提供一些新的指導思想。

據 Google Trends 資料顯示,自 2015 年起,深度學習的關鍵詞搜尋頻率開始呈快速上升趨勢。除卻 AlphaGo 等里程碑式的優秀成果之外,深度學習也不可避免地存在著諸多問題,Ali Rahimi 在2017年的NIPS頒獎禮上就曾做過一個報告,提到“Deep learning is ‘alchemy’” ,這裡的“alchemy”就是所謂的煉金術,很多人都認為深度學習就像煉丹一樣,把你的 formula 塞進去過個幾個小時或者一兩天才能看到結果,但卻不知道下一步應該怎麼調,只能透過嘗試。

談及此,董彬還重點介紹了邢波(Eric Xing)針對這句話提出的一個觀點,即“Being alchemy is certainly not a shame,not wanting to work on advancing to chemistry is a shame! ”——化學的前身就是煉金術,在沒有系統理論指導的情況下是煉金術階段,但被賦予系統的理論指導之後就從一個看似純實驗的學科變成有一定理論體系的科學,這也是所有想做基礎理論學者的標的——賦予深度學習一套科學理論,做到 Mathematical / Theoretical Deep Learning。

之所以要這麼做,是因為如今看起來長勢甚好的深度學習仍然面臨著各種各樣的挑戰:

  • 標註缺乏(或者說非常高質量的標註相對缺乏):即便已被廣泛使用的ImageNet,label 的噪聲也很大。即使標註非常豐富的計算機視覺領域也會有碰上各種各樣的問題,更何況是在標註難以獲得的生物醫療領域。

  • 如何在多樣的資料上學習:AI 的應用落地需要足夠廣泛的適用場景,因此模型也需要從不同的資料型別中學習,因為人類作出判斷不僅是看一張影象,而是結合諸多資訊,透過各種各樣異構的資料作出決策。怎麼樣在多樣的資料上學習,依然是挑戰。

  • 使深度學習模型更加透明:深度學習的效果時好時壞,正誤尤為極端,時而完美,時而又錯得離譜,其間問題為何?我們希望能夠藉助在設計時(設計網路構架/設計模型/設計最佳化演演算法)提供理論指導,從而使深度學習更加透明。而這最後一點挑戰也恰恰是人工智慧數理基礎關註重點。當下的深度神經網路不透明,調引數、訓練,再到測試人人可為,卻無人能解其深意,這正是該項研究要解決的問題。

如何提供指導?許多優秀的數學家正在透過很嚴謹的理論分析去證明部分性質,但董彬團隊走了另外一條路——先探尋深度學習訓練及網路構架與數學中的哪些概念有關係,找到這個關係後就知道從哪裡開始分析。例如可將深層網路理解成微分方程,或者將網路構架理解為微分方程的的一種離散形式,在這種情況下,網路訓練對應的就是 Optimal Control,包括強化學習也可以用連續控制的觀點來看待。據可考資料顯示,最早提出這個觀點的是鄂維南,他在 2017 年的一篇文章裡分析了殘差網路(Residual Networks, ResNets)和動力系統的關係。

這個橋梁一旦搭起,基本上就可知道從數學中的哪個領域出發去理解深度學習。鑒於此二者近年來相對獨立的發展態勢,彼此有很多思考可供借鑒,拓寬思路之餘也會發現很多有趣的新應用。

我們先來看 DNN(深度神經網路,主要是摺積網路)和數值 ODE 之間的關係。以 AlexNet 為例,若要用數學形式寫出,可以將其看作一個動力系統,但是這樣的動力系統很難分析,因為缺少特殊結構,這樣一般形式的動力系統不知該如何入手。

相比之下,如果把殘差網路的數學形式寫出來,就很容易看出它是對下麵這連續的 ODE 基於時間做了前向尤拉離散,只不過在網路設計時把 Δt 設成了 1。有些工作已經發現,把 Δt 設得更小,訓練反而更加穩定。

這是很有意思的觀察,但還要考慮殘差網路和動力系統的聯絡是否是特例或偶然,還是一般規律。更重要的是,假如我們建立了 Numerical ODE 和網路構架這樣的聯絡,那麼能否從 Numerical ODE 這一發展了幾十年的領域中去反推出一些有用的構架?而反推出的構架很多時候都是新的構架,那這些新的構架到底有沒有用?這是董彬想回答的兩個問題。

除此之外,深度學習訓練時還會遇到各種隨機擾動,這可提升訓練效果。如果在訓練時加上一些隨機擾動,比如隨機加一些噪聲,那麼其對應的動力系統是什麼,自然而然地會想到隨機偏微分方程。到底是不是呢?有兩個例子,一個是 shake-shake,一個是 stochastic depth,都是對於殘差網路設計的隨機擾動訓練。

也就是說不管用隨機策略,還是網路自帶的隨機性質,訓練它時,實際上都是在求解一個隨機控制的問題,所以可以從隨機控制的角度來看待這個帶有隨機訓練策略的深度學習訓練。

總而言之,董彬的標的是建立起數值 ODE 和網路構架設計之間的關係,並藉此從計算數學反推網路構架。利用數學的直觀,設計網路構架時就知道應該對深度是有壓縮,知道其可能帶來的效能提升,也可以解釋為什麼有這樣的提升。

在我們擁有海量資料前,提出新的科學假設往往基於人類觀察的現象(蘋果墜落之於牛頓),如今,採集資料的手段越來越先進,大量三維甚至四維的資料湧入,我們怎麼能夠透過大量資料來提取規律?

資料科學的終極標的就是利用計算,然後從大量資料中發現新的規律。一方面 PDE 是描述很多動態資料非常自然的工具,另一方面深度學習又是表達能力及學習能力都非常強的工具,能否將兩者結合?關於這一點,董彬想要應用的主要場景是生物和醫學的動態分析,以及如何用深度學習結合 PDE,結合傳統的建模思想,解決很多歷史遺留問題。一者希望能夠利用深度學習的強學習和強表達能力,再者希望藉助 PDE 給深度學習模型一定的可解釋性。

董彬介紹了他們團隊如何利用深度學習端到端的訓練思想和深層網路強大的表達能力,結合數值PDE方法,提出一個如何從海量資料中學習未知PDE模型並同時能做精確預測的演演算法框架“PDE-Net”。PDE-Net的特點如下:

  1. 自然地將先驗資訊與網路構架相結合,即將模型驅動與資料驅動相結合;

  2. 在訓練PDE-Net時,給其中的摺積核做適當的約束使其能夠逼近各階微分運算元,賦予神經網路一定的透明度(這一靈感來自之前的理論研究)。因此,PDE-Net能夠在保證預測能力的同時也保證模型的可解釋性。

分享最後,董彬對此次的報告內容做了一個簡要總結,並對未來的研究方向做了一個大體彙報:我們之前的工作實際上是在 Numerical Differential Equation 和 Deep Nearchitecture 之間搭起一個橋梁,很多時候這個橋梁是經驗性的,因為目前我們還缺少理論,只是做了一個直觀性的觀察。但現在透過觀察提出一些新的網路構架,實際效果也不錯,下一步希望能夠藉助智源的支援,做一些理論分析。還有就是透過搭起這個橋梁,我們是否能夠從數學角度出發設計出更加 robust 或者說更加緊致的深層網路,因為現在的網路很容易被攻擊,而且引數巨多無比,很難在邊緣裝置上實現。此外,我們希望能夠真正嘗試從真實的生物學動態資料裡面去學一些 principles。

 

林偉:維數的災難?維數的祝福!

 

北京大學研究員 林偉

同樣是青年千人計劃⼊選者,北京大學研究員,國內統計學習領域的⻘年學術帶頭⼈林偉的報告主題為《破解機器學習中的維數災難:從可辨識性談起》,重點分析了高維統計比較關心的一個核心的問題。近年來,以深度學習為代表的“黑箱”機器學習演演算法在應用中獲得了巨⼤成功,但缺乏可解釋性和嚴格的理論基礎。⽽可辨識性和維數災難的概念是從統計學⻆度理解深度學習與機器學習演演算法的關鍵。

所謂維數災難,就是說深度神經網路可以看成是一類過引數化的模型,資料相對於引數來說少得多,或者反過來說,引數相對於資料來說多得多。這通常會被認為是一個災難,而林偉在報告開篇便站到了另外的一個角度,不談維數的災難,反過來強調了維數的“祝福”。

而所謂可辨識性,林偉也做出了闡釋:f 是密度函式、分佈函式,如果兩個引數 θ1θ2 所對應的資料分佈是一樣的,那麼能夠推出一定是同一個引數,這就是可辨識性。也就是說從可以觀測到的資料,能夠辨識出引數應該是哪一個,或者可以說它的逆否命題也是對的,如果兩個引數值不一樣,那麼它所導致的可觀測資料的分佈也不可能一樣。

這很關鍵,如果不具有可辨識性,就沒辦法確定真引數數是什麼,因為有兩個不同的引數導致同樣的分佈。這種情況下,若是用一個演演算法去最佳化找這個引數,有時候可能跑到 θ1,有時候比較接近 θ2,就會非常不穩定,所以不可辨識模型也就面臨著諸多缺點:

  • 解釋性差:如果你不確定 θ1θ2 到底哪一個是對的,自然無法解釋 θ1 是什麼意思;

  • 預測(泛化)能力不穩定:正確性難以保證;

  • 理論保證難:如果沒有可辨識性,就根本不知道標的在哪兒,沒有努力的方向,也不知道要保證什麼。

這裡的困難在於,如果一個模型是過引數化的,一般就不具有 identifiability。因為當引數個數遠大於樣本量時,最多進行到二層就無以為繼了,因為沒辦法解,這個方程組有無窮多個解,特別是這個模型非常複雜,像 Deep Learning 這種有非常多的隱含層的時候,就更不知道中間的這些引數到底是不是唯一確定的了。

為了保證可辨識性,可以採取稀疏和低秩兩種方法,事實上後者也屬於稀疏性。這在高維統計已經做得非常成熟了,很多情況下我們提的條件中都隱含了可辨識性。但如果不能滿足精確可辨識,是不是就無計可施了?我們去看一下文獻,因果推斷理論有很多情況實際上是不可辨識的,因為因果推斷實際上極其難,無法給出點估計,但可以定界。因而便引出了近似可辨識性這樣一種新的理論框架。

而可辨識性和維數災難的概念正是從統計學角度理解深度學習與機器學習演演算法的關鍵。

邵嗣烘:人類的終極在哪兒,我們為什麼知道我們是我們?

 

北京大學副教授 邵嗣烘

北京大學副教授邵嗣烘帶來了《面向智慧的數學》主題報告,探討在腦神經⽹絡上建⽴數學模型來剖析由物質世界的物理定律演變成思想世界的意識智慧的過程。現在談到網路,很多人會在計算機裡做成一張圖、一些點,畫邊連起來。但如果你用這個方法去研究人的大腦,生成的圖會非常龐大。前者是一條連續的線;後者則是一個個離散的點,這二者雖然都叫數學,但離散數學更多是在計算機這邊關註,連續數學就是大家常說的那一類。邵嗣烘的觀點是,應該有一個更大的框架,把這兩個東西放在一起考慮。他自己做的工作就是把一些離散的東西透過某一種變化變成連續的東西,因為連續的數學裡面有很多很強大的工具,有這麼多年的積累可以使用,只要轉化過來,就可以嘗試透過其中的工具解決問題。

邵嗣烘一開場便甩出了人類的終極問題——我們人類現在在哪兒,從何處來,又要到何處去?並緊接著發問,“在這些終極問題之前,我們是否應該問問自己,‘我們為什麼知道我們是我們’?”這就涉及到我們人腦是怎麼形成意識,或者說人工智慧何解。所謂人工智慧,其根本上就是想透過我們目前理論能夠理解的方式去模仿智慧或者探索智慧的機理,但是離不開“人工”兩個字就是它就一直是人工的,我們想做的事情是在這個這終極問題上做一個可能的探索。

人的意識會帶來非常美妙的東西,牛頓被蘋果砸到腦袋,想出了萬有引力定律;張益唐教授在朋友家的後花園裡散佈,突然想通把孿生素猜想往前推進的關鍵一環……這中間的過程又是如何發生的?無論人腦產生的是美妙的想法,還是那種令人追悔莫及的念頭,都是人的一部分意識而生。

而這一切的物質基礎——大腦,則是由約 1000 億個神經元構成的腦神經網路。而組成神經元的微觀粒子更是與自然界中的原子別無二致,那麼該網路又是如何在在思想世界裡產生意識的,是否滿足量子力學的規律,所謂智慧又從何而來?這個課題在學術界早有關註,但至今仍擱淺在學說階段,一直都沒有太大進展。究其原因,一言以蔽之,曰“測量難”,無論是微觀世界的神經元定位,還是物理學層面去測一個物件的量子力學行為,都相當困難。

為瞭解答這個問題,邵嗣烘及其團隊計劃並展開了一系列探索,包括基於量子力學的維格納函式的模擬,以及瞭解所謂的圖上的數學和演演算法問題等,其目前已取得的主要代表性成果包括:獲得了多體狄拉克波函式的漸近行為,為發展高精度相對論波函式方法提供了數學基礎;發現了非線性狄拉克孤波的多峰結構,揭示了該結構會破壞穩定性,對領域的發展具有推動作用;利用維格納方程的數學結構,設計了一類高精度數值格式,實現了四維相空間內確定性的含時計算;給出了多體維格納方程分枝隨機遊走演演算法的數學理論,為量子動力學模擬提供了一套新的隨機演演算法思路。

分享最後,邵嗣烘感慨道,事實上我們直到去年才有機會看到一個果蠅的腦神經元,可能是時候從根上或者從數學理論去理解人工智慧的問題了,也許我們才剛剛開始……

 

王涵:基於深度學習的分子動力學數值方法

 

北京應用物理與計算數學研究所副研究員 王涵

北京應用物理與計算數學研究所副研究員王涵的報告主題為《Deep Learning for Multiscale Molecular Modeling》,重點探討了基於深度學習的分子動力學數值方法,介紹了深度學習在多尺度分子建模中獨特且有趣的應用,以及過程中遇到的問題。

首先什麼是分子模擬,概念非常簡單,假設這個世界由原子構成,我們將每一個原子看作一個質點,然後依據牛頓運動第二定律,給定初值以後就能把這個方程解出來,從而獲知所有原子在任意時刻的坐標,這就是分子模擬在做的事。但是大家如果看過《三體》,馬上就會意識到這個方程要想精確求解,只能針對兩原子體系,任意一個多原子體系都無法在無窮長的時間內把這個方程精確地解出來,或者說你的初值誤差就會變得非常大,導致你的解完全不靠譜。

但我們想要透過分子模擬得到的並非原子運動的軌道,而是原子運動的軌道在無窮長時間內對相空間的作用。所謂相空間是什麼?就是所有原子的坐標構成的一個空間。如果有 n 個原子寫在一起,我們想研究這個軌道在 n 空間中的分佈,在這種情況下,數值誤差對這個分佈的影響實際上是可以控制的。如果我們的離散做得足夠好,我們得到的結果就能夠和物理中想要的分佈一致,這就是分子模擬一個最基本的理念,或者說是我們正在做的事情。

這裡方程已經寫出來了,但我們還不知道每一個原子的受力,每個原子的受力寫成公式實際上就是這個能量的負梯度,能量就是依賴於所有原子的。假設一個體系裡有n個原子,知道坐標後就能把體系能量寫出來,同時對任意一個原子坐標求負梯度,就能知道原子的受力。我們所謂的分子建模,就是把能量函式的E給寫出來。多尺度分子建模就是說對這個原子坐標做一定的粗粒化,然後怎麼樣寫出一些等價的形式。

這裡的 E 本質上是多維函式,多維函式在傳統數學的手段上處理起來還是比較困難的,正好深度學習為我們處理多維函式提供了非常有利的工具,這也是我們研究的出發點。

稍微回顧一下分子建模或解能量函式E的傳統方法,包括兩種套路,其一是從頭算,就是把體系中的電子結構給解出來,就像剛才邵老師講的,從學薛定諤方程出發,把體系中所有電子的結構解出來,這樣的話自然就獲得能量函式 E。其優點在於出發的模型幾乎沒有任何假設,能量 E 可以解得非常精確,甚至和實驗對得非常好;缺點則是非常昂貴的,典型的大家能夠算得起的體系實在是太小了。另外一種套路就是經典力場建模,假設E有某種比較簡單的函式形式,實際上是顯式的函式形式,當然裡面帶了一些引數。我猜出這種函式形式,然後我去套引數,使得這個 E 盡可能的靠譜。這麼做的好處當然是快,但是缺點就是精度非常有限。而我們的思路就是用深度學習去解決這個問題,我們希望達到的標的就是能夠在保證第一性原理計算的精度條件下,做到計算開銷和經典力場盡可能合併。

王涵及其合作者發展了基於深度學習的原子間相互作用建模方法——深度勢能,提出透過模型一致性估計深度勢能模型誤差的方法,在本質上改善了原子間相互作用的建模精度。深度勢能的模型精度達到與第一性原理計算一致,同時計算開銷的階由 O(N3) 降低到 O(N),其中 N 為體系中原子個數。數值實驗表明,在約 100 個水分子的模擬中,深度勢能的計算開銷比第一性原理計算節省將近 5 個數量級,極大地提高了計算效率。

英國皇家學會外籍院士 Parrinello 使用深度勢能分子動力學方法研究矽的熔化,剋服了傳統原子間相互作用模型無法同時精確刻畫矽的固相和液相的困難。北京師範大學的崔剛龍教授課題組對深度勢能模型進行了擴充套件,用於對非絕熱激發態分子動力學建模,剋服了傳統方法在能量面交接錐處模型精度低的難題,獲得了和第一性原理一致的激發態動力學模擬結果。

 

張志華:“機器學習才是解決人工智慧的王者之道”!

 

北京⼤學教授 張志華

本此論壇最後一位分享嘉賓是來自北京⼤學的張志華教授,他同時還是機器學習領域頂級雜誌 JMLR 的編委,國內統計學習領域的學術帶頭⼈。其報告題為《數學⼯程——理解機器學習的⼀種⻆度》,認為數學工程是通向人工智慧的一種途徑,提出從“數學⼯程”的角度來理解機器學習。

他⾸先回顧了機器學習發展的⼏個重要階段:基於規則的學習、基於統計推理的學習、基於深度表示的學習等。同時還討論了機器學習的四個基礎原則:泛化性、穩定性、可計算性和可解釋性等,並分析瞭解決這些問題的⼀些基本數學⼿段。

談及此次分享,張志華坦言,他的看法和角度可能不一定是大家所公認的,但他這麼多年的研究經歷一直站在前沿,對機器學習、深度學習都有自己的理解。

他認為機器學習與人工智慧有著本質上的不同,前者志不在模擬人的思維和行為,主要是想透過經驗和互動的方式改善效能,是基於規則的學習。機器學習實際上是研究演演算法的學科,這個演演算法是基於資料型演演算法,然後反饋到資料中去。我們可以簡單地把機器學習的過程看作這樣一個思路,然後可以基於此看看機器學習發展的歷程:

傳統方法:基於規則學習

第一個比較成熟或者說比較有代表性的歷程是基於規則的學習,其目的就是規則,用規則去做預測。但重點不在於怎麼形成規則,而是試圖把人類對標的的認知形式化表示,從而自然地形成規則推理,其代表的形態有專家系統和句法樣式識別。其重點為特徵工程,也就是從資料到表示,而這一過程也涉及大量深入的領域知識要求。

但這一階段也暴露出一些問題,其一便是基於規則學習的方法雖然對於淺層推理比較有效,但遇上深層推理需求,如果形成規則過多,在其中搜索就容易出現前面的分享提到過的維數災難問題。

為瞭解決這個問題,一個用一個強大的非線性學習模型來弱化資料到表示這個過程的作用,基於這樣的理論,機器學習發展至第二個階段。

統計機器學習:黃金髮展十年

90 年代中期到 2005 年左右這十年,是統計機器學習發展的黃金時期。

與之相反的是,這一階段的神經網路(80 年代就已經出現神經網路模型)則相對趨於比較低落的時期,表現平平,發展遇冷。主要原因在於這個時期的機器學習方法比神經網路要更為簡單,效能也要更好,屬性性質相對完美,自然而然地就取代了神經網路。

但隨著這個統計方法發展到一定階段,大家發現“資料到表示”這件事情還是繞不過去。而應對這一問題地一個簡單的思路就是透過學習的途徑來求解表示問題,從而弱化研究者對於領域背景高度掌握的要求,也就是透過一個自動化的方式來解決這一問題。

基於深度表示的學習

大模型+大資料+大計算使得這種思路變得可行,機器學習也進入了第三階段。AlexNet 網路的提出在後來為這個問題帶來了突破性進展,很多做計算機視覺的人在網路方面不停跟進,這些發展主要是基於視覺的。

深度學習發展至今,主要是有監督的,但是現在無監督的問題遠多於有監督的問題,而且還更複雜。那麼一個簡單的思路就是要把無監督問題形成為與有監督類似的一個學習最佳化過程。

張志華認為機器學習的關鍵在於表示學習,表示需要適合預測和適合計算。而深度表示所面臨的挑戰包括:由於大資料的需要可能導致過引數化;由於多層的表示,導致問題高度非凸化。而機器學習的基礎原則是可預測性、可計算性、穩定性以及可解釋性。

關於機器學習和數學工程間的關係,他給出了這樣的闡釋:

  • 統計為求解問題提供了資料驅動的建模途徑;

  • 機率論、隨機分析、微分方程、微分流形等工具可以引入來研究 AI 的數學機理;

  • 無論從統計角度還是從數學角度來研究 AI,其實際效能最後都要透過計算呈現出來:

    • 數值分析,即求解連續數學問題的演演算法;

    • 離散演演算法,即求解離散結構問題的演演算法;

    • 大規模計算架構。

在最後的總結中,張志華指出,現在談數學工程,一是統計,二是數學——統計為解決問題提供了最佳建模途徑;而數學裡的機率論、隨機分析等工具可以用來研究 AI 的數學機理。而這一切最終都將透過計算呈現。機器學習=數學+工程,應用數學最重要的魅力在於幫助我們提出解決問題的思路或途徑,而不僅僅在於證明理論;工程是技術也是藝術,它是演演算法的必要補充,是新演演算法提出的源泉;機器學習是數學和工程的完美結合體現。

瞭解更多人工智慧數理基礎系列報告,請關註智源研究院公眾號,緊密追蹤 5 ⽉ 13 ⽇及 16 ⽇的後續論壇,另有十位頂尖學者將為大家帶來精彩分享!

關於主辦方

 

北京智源人工智慧研究院(Beijing
Academy of Artificial
Intelligence,BAAI)是在科技部和北京市委市政府的指導和支援下,由北京市科委和海澱區政府推動成立,依託北京大學、清華大學、中國科學院、百度、小米、位元組跳動、美團點評、曠視科技等北京人工智慧領域優勢單位共建的新型研究機構。

報名方式

長按識別上方二維碼報名

贊(0)

分享創造快樂