1、通過特征本身的方差來篩選特征。特征的方差越小,特征的變化越不明顯。
2、變化越不明顯的特征對我們區(qū)分標(biāo)簽沒有太大作用,因此應(yīng)該消除這些特征。
def variance_demo(): """ 過濾低方差特征 :return: """ # 1. 獲取數(shù)據(jù) data = pd.read_csv('factor_returns.csv') data = data.iloc[:, 1:-2] print('data:\n', data) # 2. 實(shí)例化一個(gè)轉(zhuǎn)換器類 transfer = VarianceThreshold(threshold=10) # 3. 調(diào)用fit_transform() data_new = transfer.fit_transform(data) print('data_new:\n', data_new, data_new.shape) return None
知識點(diǎn)擴(kuò)充:
方差過濾法
VarianceThreshold 是特征選擇的一個(gè)簡單基本方法,其原理在于–底方差的特征的預(yù)測效果往往不好。而VarianceThreshold會(huì)移除所有那些方差不滿足一些閾值的特征。默認(rèn)情況下,它將會(huì)移除所有的零方差特征,即那些在所有的樣本上的取值均不變的特征。
sklearn中的VarianceThreshold類中重要參數(shù) threshold(方差的閾值),表示刪除所有方差小于threshold的特征 #不填默認(rèn)為0——?jiǎng)h除所有記錄相同的特征。
import pandas as pd import numpy as np np.random.seed(1) #設(shè)置隨機(jī)種子,實(shí)現(xiàn)每次生成的隨機(jī)數(shù)矩陣都一樣 a= np.random.randint(0, 200,10) b= np.random.randint(0, 200,10) c= np.random.randint(0, 200,10) d= [9,9,9,9,9,9,9,9,9,9] data=pd.DataFrame({"A" : a,"B" : b,"C" : c,"D" : d}) data from sklearn.feature_selection import VarianceThreshold sel_model = VarianceThreshold(threshold = 0) #刪除不合格特征之后的新矩陣 sel_model.fit_transform(data)
到此這篇關(guān)于Python方差特征過濾的實(shí)例分析的文章就介紹到這了,更多相關(guān)Python方差特征過濾的實(shí)現(xiàn)內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
標(biāo)簽:盤錦 海南 南平 漯河 大同 林芝 寧夏 普洱
巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Python方差特征過濾的實(shí)例分析》,本文關(guān)鍵詞 Python,方差,特征,過濾,的,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。