LLM原理完整回顧 - 大型語言模型整體脈絡最詳細剖析https://youtu.be/hOzkmF9Cv3Y✴︎ 數學基礎:張量,機率,微積分✴︎ 線性迴歸:模型之母✴︎ 邏輯迴歸:隱藏因數✴︎ 計量經濟學的啟示:他山之石✴︎ 最佳化演算法:參數估計✴︎ 反向傳播:神經網路的工程基礎✴︎ 多層感知器:神經網路的「創世記」✴︎ 卷積神經網路:深度學習的「出埃及記」✴︎ 循環神經網路:嘗試理解人類語言✴︎ 大語言模型:是通用人工智慧的開始嗎✴︎ 強化學習:在動態互動中進化✴︎ 其他經典模型:決策樹,隱馬可夫模型,聚類與降維,奇異值分解
唐亘資料科學家,專注於人工智慧和巨量資料,積極參與Apache Spark、scikit-learn等開放原始碼項目,曾為華為、復旦大學等多家機構提供過百餘場技術培訓。曾撰寫《精通數據科學:從線性回歸到深度學習》一書,並擔任英國最大線上出版社Packt的技術審稿人。畢業於復旦大學,獲數學與電腦科學雙學士學位,後求學於巴黎綜合理工學院,獲經濟學和資料科學雙碩士學位。