本文實(shí)例講述了決策樹的python實(shí)現(xiàn)方法。分享給大家供大家參考。具體實(shí)現(xiàn)方法如下:
決策樹算法優(yōu)缺點(diǎn):
優(yōu)點(diǎn):計(jì)算復(fù)雜度不高,輸出結(jié)果易于理解,對(duì)中間值缺失不敏感,可以處理不相關(guān)的特征數(shù)據(jù)
缺點(diǎn):可能會(huì)產(chǎn)生過(guò)度匹配的問(wèn)題
適用數(shù)據(jù)類型:數(shù)值型和標(biāo)稱型
算法思想:
1.決策樹構(gòu)造的整體思想:
決策樹說(shuō)白了就好像是if-else結(jié)構(gòu)一樣,它的結(jié)果就是你要生成這個(gè)一個(gè)可以從根開(kāi)始不斷判斷選擇到葉子節(jié)點(diǎn)的樹,但是呢這里的if-else必然不會(huì)是讓我們認(rèn)為去設(shè)置的,我們要做的是提供一種方法,計(jì)算機(jī)可以根據(jù)這種方法得到我們所需要的決策樹。這個(gè)方法的重點(diǎn)就在于如何從這么多的特征中選擇出有價(jià)值的,并且按照最好的順序由根到葉選擇。完成了這個(gè)我們也就可以遞歸構(gòu)造一個(gè)決策樹了
2.信息增益
劃分?jǐn)?shù)據(jù)集的最大原則是將無(wú)序的數(shù)據(jù)變得更加有序。既然這又牽涉到信息的有序無(wú)序問(wèn)題,自然要想到想弄的信息熵了。這里我們計(jì)算用的也是信息熵(另一種方法是基尼不純度)。公式如下:
數(shù)據(jù)需要滿足的要求:
① 數(shù)據(jù)必須是由列表元素組成的列表,而且所有的列白哦元素都要具有相同的數(shù)據(jù)長(zhǎng)度
② 數(shù)據(jù)的最后一列或者每個(gè)實(shí)例的最后一個(gè)元素應(yīng)是當(dāng)前實(shí)例的類別標(biāo)簽
函數(shù):
calcShannonEnt(dataSet)
計(jì)算數(shù)據(jù)集的香農(nóng)熵,分兩步,第一步計(jì)算頻率,第二部根據(jù)公式計(jì)算香農(nóng)熵
splitDataSet(dataSet, aixs, value)
劃分?jǐn)?shù)據(jù)集,將滿足X[aixs]==value的值都劃分到一起,返回一個(gè)劃分好的集合(不包括用來(lái)劃分的aixs屬性,因?yàn)椴恍枰?br />
chooseBestFeature(dataSet)
選擇最好的屬性進(jìn)行劃分,思路很簡(jiǎn)單就是對(duì)每個(gè)屬性都劃分下,看哪個(gè)好。這里使用到了一個(gè)set來(lái)選取列表中唯一的元素,這是一中很快的方法
majorityCnt(classList)
因?yàn)槲覀冞f歸構(gòu)建決策樹是根據(jù)屬性的消耗進(jìn)行計(jì)算的,所以可能會(huì)存在最后屬性用完了,但是分類還是沒(méi)有算完,這時(shí)候就會(huì)采用多數(shù)表決的方式計(jì)算節(jié)點(diǎn)分類
createTree(dataSet, labels)
基于遞歸構(gòu)建決策樹。這里的label更多是對(duì)于分類特征的名字,為了更好看和后面的理解。
代碼如下:
#coding=utf-8
import operator
from math import log
import time
def createDataSet():
dataSet=[[1,1,'yes'],
[1,1,'yes'],
[1,0,'no'],
[0,1,'no'],
[0,1,'no']]
新聞熱點(diǎn)
疑難解答
圖片精選