欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

怎么在Python中利用sklearn實現(xiàn)一個回歸算法-創(chuàng)新互聯(lián)

這篇文章將為大家詳細講解有關(guān)怎么在Python中利用sklearn實現(xiàn)一個回歸算法,文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關(guān)知識有一定的了解。

專注于為中小企業(yè)提供成都網(wǎng)站制作、成都網(wǎng)站設計、外貿(mào)營銷網(wǎng)站建設服務,電腦端+手機端+微信端的三站合一,更高效的管理,為中小企業(yè)大祥免費做網(wǎng)站提供優(yōu)質(zhì)的服務。我們立足成都,凝聚了一批互聯(lián)網(wǎng)行業(yè)人才,有力地推動了近千家企業(yè)的穩(wěn)健成長,幫助中小企業(yè)通過網(wǎng)站建設實現(xiàn)規(guī)模擴充和轉(zhuǎn)變。

使用sklearn做各種回歸

基本回歸:線性、決策樹、SVM、KNN

集成方法:隨機森林、Adaboost、GradientBoosting、Bagging、ExtraTrees

1. 數(shù)據(jù)準備

為了實驗用,我自己寫了一個二元函數(shù),y=0.5*np.sin(x1)+ 0.5*np.cos(x2)+0.1*x1+3。其中x1的取值范圍是0~50,x2的取值范圍是-10~10,x1和x2的訓練集一共有500個,測試集有100個。其中,在訓練集的上加了一個-0.5~0.5的噪聲。生成函數(shù)的代碼如下:

def f(x1, x2):
  y = 0.5 * np.sin(x1) + 0.5 * np.cos(x2) + 0.1 * x1 + 3
  return y
def load_data():
  x1_train = np.linspace(0,50,500)
  x2_train = np.linspace(-10,10,500)
  data_train = np.array([[x1,x2,f(x1,x2) + (np.random.random(1)-0.5)] for x1,x2 in zip(x1_train, x2_train)])
  x1_test = np.linspace(0,50,100)+ 0.5 * np.random.random(100)
  x2_test = np.linspace(-10,10,100) + 0.02 * np.random.random(100)
  data_test = np.array([[x1,x2,f(x1,x2)] for x1,x2 in zip(x1_test, x2_test)])
  return data_train, data_test

其中訓練集(y上加有-0.5~0.5的隨機噪聲)和測試集(沒有噪聲)的圖像如下:

怎么在Python中利用sklearn實現(xiàn)一個回歸算法

2. scikit-learn的簡單使用

scikit-learn非常簡單,只需實例化一個算法對象,然后調(diào)用fit()函數(shù)就可以了,fit之后,就可以使用predict()函數(shù)來預測了,然后可以使用score()函數(shù)來評估預測值和真實值的差異,函數(shù)返回一個得分。

完整程式化代碼為:

import numpy as np
import matplotlib.pyplot as plt
###########1.數(shù)據(jù)生成部分##########
def f(x1, x2):
  y = 0.5 * np.sin(x1) + 0.5 * np.cos(x2) + 3 + 0.1 * x1
  return y
def load_data():
  x1_train = np.linspace(0,50,500)
  x2_train = np.linspace(-10,10,500)
  data_train = np.array([[x1,x2,f(x1,x2) + (np.random.random(1)-0.5)] for x1,x2 in zip(x1_train, x2_train)])
  x1_test = np.linspace(0,50,100)+ 0.5 * np.random.random(100)
  x2_test = np.linspace(-10,10,100) + 0.02 * np.random.random(100)
  data_test = np.array([[x1,x2,f(x1,x2)] for x1,x2 in zip(x1_test, x2_test)])
  return data_train, data_test
train, test = load_data()
x_train, y_train = train[:,:2], train[:,2] #數(shù)據(jù)前兩列是x1,x2 第三列是y,這里的y有隨機噪聲
x_test ,y_test = test[:,:2], test[:,2] # 同上,不過這里的y沒有噪聲
###########2.回歸部分##########
def try_different_method(model):
  model.fit(x_train,y_train)
  score = model.score(x_test, y_test)
  result = model.predict(x_test)
  plt.figure()
  plt.plot(np.arange(len(result)), y_test,'go-',label='true value')
  plt.plot(np.arange(len(result)),result,'ro-',label='predict value')
  plt.title('score: %f'%score)
  plt.legend()
  plt.show()
###########3.具體方法選擇##########
####3.1決策樹回歸####
from sklearn import tree
model_DecisionTreeRegressor = tree.DecisionTreeRegressor()
####3.2線性回歸####
from sklearn import linear_model
model_LinearRegression = linear_model.LinearRegression()
####3.3SVM回歸####
from sklearn import svm
model_SVR = svm.SVR()
####3.4KNN回歸####
from sklearn import neighbors
model_KNeighborsRegressor = neighbors.KNeighborsRegressor()
####3.5隨機森林回歸####
from sklearn import ensemble
model_RandomForestRegressor = ensemble.RandomForestRegressor(n_estimators=20)#這里使用20個決策樹
####3.6Adaboost回歸####
from sklearn import ensemble
model_AdaBoostRegressor = ensemble.AdaBoostRegressor(n_estimators=50)#這里使用50個決策樹
####3.7GBRT回歸####
from sklearn import ensemble
model_GradientBoostingRegressor = ensemble.GradientBoostingRegressor(n_estimators=100)#這里使用100個決策樹
####3.8Bagging回歸####
from sklearn.ensemble import BaggingRegressor
model_BaggingRegressor = BaggingRegressor()
####3.9ExtraTree極端隨機樹回歸####
from sklearn.tree import ExtraTreeRegressor
model_ExtraTreeRegressor = ExtraTreeRegressor()
###########4.具體方法調(diào)用部分##########
try_different_method(model_DecisionTreeRegressor)

3.結(jié)果展示

決策樹回歸結(jié)果:
怎么在Python中利用sklearn實現(xiàn)一個回歸算法

線性回歸結(jié)果:
怎么在Python中利用sklearn實現(xiàn)一個回歸算法

SVM回歸結(jié)果:
怎么在Python中利用sklearn實現(xiàn)一個回歸算法

KNN回歸結(jié)果:
怎么在Python中利用sklearn實現(xiàn)一個回歸算法

隨機森林回歸結(jié)果:
怎么在Python中利用sklearn實現(xiàn)一個回歸算法

Adaboost回歸結(jié)果:
怎么在Python中利用sklearn實現(xiàn)一個回歸算法

GBRT回歸結(jié)果:
怎么在Python中利用sklearn實現(xiàn)一個回歸算法

Bagging回歸結(jié)果:
怎么在Python中利用sklearn實現(xiàn)一個回歸算法

極端隨機樹回歸結(jié)果:
怎么在Python中利用sklearn實現(xiàn)一個回歸算法

關(guān)于怎么在Python中利用sklearn實現(xiàn)一個回歸算法就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

本文標題:怎么在Python中利用sklearn實現(xiàn)一個回歸算法-創(chuàng)新互聯(lián)
文章地址:http://aaarwkj.com/article44/dipihe.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站改版、網(wǎng)站維護動態(tài)網(wǎng)站、響應式網(wǎng)站、建站公司靜態(tài)網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都網(wǎng)站建設公司
一区二区不卡中文av| 日本欧美国产污黄在线观看| 看看美女阴逼毛茸茸的| 国产三级尤物在线观看| 九九视频精品免费高清视频| 久久精品亚洲欧美麻豆| 中文字幕日产乱码一二三区| 又爽又色的日本网站| 国产一区二区三区精品久久| 亚洲欧美另类不卡专区| 亚洲午夜福利影院在线免费观看| 亚洲精品一区国产精品av| 欧美中文日韩国产字幕| 激情亚洲不卡一区二区| 日本中文字幕在线一区| 人妻少妇被猛烈进入文字幕| 欧洲亚洲精品免费二区| 日本人妻系列在线播放| 91精品国产91久久综合福利| 久久人妻蜜桃一区二区三区| 未满十八禁在线观看免费| 一区二区在线视频免费播放| 熟女少妇精品一区二区三区| 亚洲热久久国产经典视频| 无人视频在线观看高清91| 日韩精品人妻一区二区三区蜜桃臀 | 人妻勾引中文字幕在线视频| 国产精品久久99粉嫩| 日韩在线观看精品亚洲| 久久激情日本人妻av免费| 日本中文字幕乱码一区| 欧美人妻不卡一区二区久久| 欧美生活一区二区三区| 国产麻豆精品传媒av| 亚洲天堂男人的天堂狠狠操| 国产精品av一区二区在线| 真实夫妻露脸爱视频九色网| 四虎免费在线视频观看| 国产乡下三级_三级全黄| 最新日本欧美一区二区| 欧美日韩在线亚洲二区综二|