?我們觀察事物時,之所以能夠快速判斷一種事物(當然允許判斷是錯誤的),是因為我們大腦能夠很快把注意力放在事物最具有辨識度的部分從而作出判斷,而并非是從頭到尾的觀察一遍事物后,才能有判斷結果,正是基于這樣的理論,就產生了注意力機制。查看全文>>
ndarray對象提供了一些可以便捷地改變數組基礎形狀的屬性和方法,例如,將一個3行4列的二維數組轉換成6行2列的二維數組,關于這些屬性和方法的具體說明如表9-3所示。查看全文>>
交叉驗證就是將拿到的訓練數據,分為訓練和驗證集。以下圖為例:將數據分成4份,其中一份作為驗證集。然后經過4次(組)的測試,每次都更換不同的驗證集。即得到4組模型的結果,取平均值作為最終結果。又稱4折交叉驗證。查看全文>>
信息增益:以某特征劃分數據集前后的熵的差值。熵可以表示樣本集合的不確定性,熵越大,樣本的不確定性就越大。因此可以使用劃分前后集合熵的差值來衡量使用當前特征對于樣本集合D劃分效果的好壞。查看全文>>
實際上,信息增益準則對可取值數目較多的屬性有所偏好,為減少這種偏好可能帶來的不利影響,著名的 C4.5 決策樹算法 [Quinlan, 1993J 不直接使用信息增益,而是使用"增益率" (gain ratio) 來選擇最優劃分屬性.增益率:增益率是用前面的信息增益Gain(D, a)和屬性a對應的"固有值"(intrinsic value) [Quinlan , 1993J的比值來共同定義的。查看全文>>
如果不是有放回的抽樣,那么每棵樹的訓練樣本都是不同的,都是沒有交集的,這樣每棵樹都是“有偏的”,都是絕對“片面的”(當然這樣說可能不對),也就是說每棵樹訓練出來都是有很大的差異的;而隨機森林最后分類取決于多棵樹(弱分類器)的投票表決。查看全文>>