mantch  
陕西十一选五

2019年8月24日

摘要:文章目錄1. 說說GloVe2. GloVe的實現步驟2.1 構建共現矩陣2.2 詞向量和共現矩陣的近似關系2.3 構造損失函數2.4 訓練GloVe模型3. GloVe與LSA、Word2Vec的比較4. 代碼實現5. 參考文獻 1. 說說GloVe 正如GloVe論文的標題而言,**GloVe的全稱叫Global Vectors for Word Representation,它是一個基于全局... 閱讀全文
posted @ 2019-08-24 10:26 mantch 閱讀 (10) 評論 (0) 編輯

2019年8月23日

摘要:文章目錄1. 什么是fastText2. n-gram表示單詞3. fastText模型架構4. fastText核心思想5. 輸出分類的效果6. fastText與Word2Vec的不同7. 代碼實現8. 參考文獻 1. 什么是fastText 英語單詞通常有其內部結構和形成?式。例如,我們可以從“dog”“dogs”和“dogcatcher”的字?上推測它們的關系。這些詞都有同?個詞根“dog... 閱讀全文
posted @ 2019-08-23 08:49 mantch 閱讀 (75) 評論 (0) 編輯

2019年8月20日

摘要:文章目錄1. 什么是NLP2. NLP主要研究方向3. NLP的發展4. NLP任務的一般步驟5. 我的NLP啟蒙讀本6. NLP、CV,選哪個? 1. 什么是NLP 自然語言處理 (Natural Language Processing) 是人工智能(AI)的一個子領域。**自然語言處理是研究在人與人交互中以及在人與計算機交互中的語言問題的一門學科。**為了建設和完善語言模型,自然語言處理建立計... 閱讀全文
posted @ 2019-08-20 19:40 mantch 閱讀 (161) 評論 (0) 編輯

2019年8月19日

摘要:1. 訓練誤差和泛化誤差 機器學習模型在訓練數據集和測試數據集上的表現。如果你改變過實驗中的模型結構或者超參數,你也許發現了:當模型在訓練數據集上更準確時,它在測試數據集上卻不?定更準確。這是為什么呢? 因為存在著訓練誤差和泛化誤差: **訓練誤差:**模型在訓練數據集上表現出的誤差。 **泛化誤差:**模型在任意?個測試數據樣本上表現出的誤差的期望,并常常通過測試數據集上的誤差來近似。 訓練... 閱讀全文
posted @ 2019-08-19 20:00 mantch 閱讀 (100) 評論 (0) 編輯

2019年8月18日

摘要:文章目錄1. 什么是強化學習2. 強化學習模型2.1 打折的未來獎勵2.2 Q-Learning算法2.3 Deep Q Learning(DQN)2.3.1 神經網絡的作用2.3.2 神經網絡計算Q值3. 強化學習和監督學習、無監督學習的區別4. 什么是多任務學習5. 參考文獻 1. 什么是強化學習 其他許多機器學習算法中學習器都是學得怎樣做,而強化學習(Reinforcement Learni... 閱讀全文
posted @ 2019-08-18 17:44 mantch 閱讀 (33) 評論 (0) 編輯
 
摘要:文章目錄1. 什么是遷移學習2. 為什么需要遷移學習?3. 遷移學習的基本問題有哪些?4. 遷移學習有哪些常用概念?5. 遷移學習與傳統機器學習有什么區別?6. 遷移學習的核心及度量準則?7. 遷移學習與其他概念的區別?8. 什么情況下可以使用遷移學習?9. 什么是finetune?10. 什么是深度網絡自適應?11. GAN在遷移學習中的應用12. 代碼實現13. 參考文獻 1. 什么是遷移學習... 閱讀全文
posted @ 2019-08-18 10:50 mantch 閱讀 (20) 評論 (0) 編輯

2019年8月17日

摘要:文章目錄1. 什么是LSTM2. 輸??、遺忘?和輸出?3. 候選記憶細胞4. 記憶細胞5. 隱藏狀態6. LSTM與GRU的區別7. LSTM可以使用別的激活函數嗎?8. 代碼實現9. 參考文獻 1. 什么是LSTM 在你閱讀這篇文章時候,你都是基于自己已經擁有的對先前所見詞的理解來推斷當前詞的真實含義。我們不會將所有的東西都全部丟棄,然后用空白的大腦進行思考。我們的思想擁有持久性。LSTM就是... 閱讀全文
posted @ 2019-08-17 18:37 mantch 閱讀 (113) 評論 (0) 編輯

2019年8月16日

摘要:文章目錄1. 什么是GRU2. ?控循環單元2.1 重置門和更新門2.2 候選隱藏狀態2.3 隱藏狀態3. 代碼實現GRU4. 參考文獻 1. 什么是GRU 在循環神經?絡中的梯度計算?法中,我們發現,當時間步數較?或者時間步較小時,**循環神經?絡的梯度較容易出現衰減或爆炸。雖然裁剪梯度可以應對梯度爆炸,但?法解決梯度衰減的問題。**通常由于這個原因,循環神經?絡在實際中較難捕捉時間序列中時間步... 閱讀全文
posted @ 2019-08-16 15:43 mantch 閱讀 (22) 評論 (0) 編輯

2019年8月15日

摘要:文章目錄1. 什么是RNN1.1 RNN的應用1.2 為什么有了CNN,還要RNN?1.3 RNN的網絡結構1.4 雙向RNN1.5 BPTT算法2. 其它類型的RNN3. CNN與RNN的區別4. 為什么RNN 訓練的時候Loss波動很大5. 實例代碼 1. 什么是RNN 循環神經網絡(Recurrent Neural Network, RNN)是一類以序列(sequence)數據為輸入,在序... 閱讀全文
posted @ 2019-08-15 14:44 mantch 閱讀 (183) 評論 (0) 編輯

2019年8月11日

摘要:文章目錄1. 什么是CNN1.1 輸入層1.2 卷積計算層(conv)1.3 激勵層1.4 池化層1.5 全連接層1.6 層次結構小結1.7 CNN優缺點2. 典型CNN發展歷程3. 圖像相關任務3.1 圖像識別與定位3.1.1 思路1:識別+定位過程3.1.2 思路2:圖窗+識別3.2 物體檢測(object detection)3.2.1 過程3.2.2 R-CNN3.2.3 SPP-Net3... 閱讀全文
posted @ 2019-08-11 14:48 mantch 閱讀 (81) 評論 (0) 編輯
 
陕西十一选五
Copyright © 2019 mantch
Powered by .NET Core 3.0 Preview 8 on Linux
Powered by: 陕西十一选五 模板提供:陕西十一选五
陕西十一选五