線性回歸是機器學習中的基礎算法之一,屬于監督學習中的回歸問題,算法的關鍵在于如何最小化代價函數,通常使用梯度下降或者正規方程(最小二乘法),在這里對算法原理不過多贅述,建議看吳恩達發布在斯坦福大學上的課程進行入門學習。
這里主要使用python的sklearn實現一個簡單的單變量線性回歸。
sklearn對機器學習方法封裝的十分好,基本使用fit,predict,score,來訓練,預測,評價模型,
一個簡單的事例如下:
from pandas import DataFramefrom pandas import DataFrameimport pandas as pdimport matplotlib.pyplot as pltfrom sklearn import datasets,linear_model X=[]Y=[]with open("C://Users//www//ex1data1.txt","r") as f: #讀取txt文件。 for line in f: p_tmp, E_tmp = [float(i) for i in line.split(',')] X.append(p_tmp) Y.append(E_tmp) #'data=np.loadtxt('ex1data1.txt',delimiter=',')
# X=data[0]
# Y=data[1]
data=DataFrame(X,columns={'a'})data['b']=bX=DataFrame(X) fig = plt.figure() ax1 = fig.add_subplot(1,1,1)plt.scatter(data['a'],data['b']) #顯示X,Y的散點圖 def linear_model_main(X,Y,predict_value): #定義一個使用線性回歸的函數 regr=linear_model.LinearRegression() regr.fit(X,Y) #訓練模型 predict_output=regr.predict(predict_value) #預測 predictions={} #用一個集合裝以下元素 predictions['intercept']=regr.intercept_ #截距 predictions['codfficient']=regr.coef_ #斜率(參數) predictions['predict_value']=predict_output #預測值 return predictions result = linear_model_main(X,Y,1500) #調用函數print(result['predict_value']) def show_predict(X,Y): regr=linear_model.LinearRegression() regr.fit(X,Y) plt.scatter(X,Y,color='blue') plt.plot(X,regr.predict(X),color='red') show_predict(X,Y)
最后擬合結果如圖:
以上這篇python實現簡單的單變量線性回歸方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持武林站長站。
新聞熱點
疑難解答