如何評價算法的好壞?

2021-01-27    分類: 網(wǎng)站建設(shè)

評價一個算法的好壞,我認(rèn)為關(guān)鍵是看能不能解決問題。如果算法能很好地解決實際的問題,那么我認(rèn)為就是好算法。 比如預(yù)測的算法,關(guān)鍵是看預(yù)測的準(zhǔn)確率,即預(yù)測值與實際值之間的接近程度,而不是看算法本身的評分高低。

在《 如何用人工智能預(yù)測雙 11 的交易額 》這篇文章中,利用線性回歸算法,我預(yù)測 2019 年雙 11 交易額為 2471 億元,而阿里官方公布的實際交易額是 2684 億元,預(yù)測值比實際值少 7.9%,對這個結(jié)果,我覺得準(zhǔn)確率不夠高。反思預(yù)測的過程,我認(rèn)為可以從以下幾個方面來進(jìn)行改進(jìn)。

1. 樣本

為了簡化算法模型,我舍棄掉了前幾年相對較小的數(shù)據(jù),只保留了最近 5 年的數(shù)據(jù)。

在數(shù)據(jù)量本身就比較少的情況下,我仍然遵循簡單原則,這無形中就加大了算法不穩(wěn)定的風(fēng)險,出現(xiàn)了欠擬合的問題。

盡管算法的評分很高,但是評分高并不代表算法就好。所以,樣本的選擇非常重要,不能單純地追求算法的評分高,而忽略樣本的質(zhì)量。

2. 算法

如果保留所有樣本,那么顯然數(shù)據(jù)呈現(xiàn)的規(guī)律并不是線性的,用多項式回歸算法應(yīng)該是個更好的選擇。

假如用三次多項式回歸算法進(jìn)行預(yù)測,那么算法代碼如下:

  1. # 導(dǎo)入所需的庫 
  2. import numpy as np 
  3. import pandas as pd 
  4. import matplotlib.pyplot as plt 
  5. from sklearn.linear_model import LinearRegression 
  6. from sklearn.preprocessing import PolynomialFeatures 
  7. from sklearn.pipeline import Pipeline 
  8. from sklearn.preprocessing import StandardScaler 
  9.  
  10. # 內(nèi)嵌畫圖 
  11. %matplotlib inline 
  12.  
  13. # 設(shè)置正常顯示中文標(biāo)簽 
  14. plt.rcParams['font.sans-serif'] = ['SimHei'] 
  15.  
  16. # 讀取數(shù)據(jù),在林驥的公眾號后臺回復(fù)「1111」 
  17. df = pd.read_excel('./data/1111.xlsx') 
  18.  
  19. # x 年份 
  20. x = np.array(df.iloc[:, 0]).reshape(-1, 1) 
  21.  
  22. # y 交易額 
  23. y = np.array(df.iloc[:, 1]) 
  24.  
  25. # z 預(yù)測的年份 
  26. z = [[2019]] 
  27.  
  28. # 用管道的方式調(diào)用多項式回歸算法 
  29. poly_reg = Pipeline([ 
  30.  ('ploy', PolynomialFeatures(degree=3)), 
  31.  ('std_scaler', StandardScaler()), 
  32.  ('lin_reg', LinearRegression()) 
  33. ]) 
  34. poly_reg.fit(x, y) 
  35.  
  36. # 用算法進(jìn)行預(yù)測 
  37. predict = poly_reg.predict(z) 
  38.  
  39. # 輸出預(yù)測結(jié)果 
  40. print('預(yù)測 2019 年雙 11 的交易額是', str(round(predict[0],0)), '億元。') 
  41. print('線性回歸算法的評分:', poly_reg.score(x, y)) 

預(yù)測 2019 年雙 11 的交易額是 2689.0 億元。

線性回歸算法的評分:0.99939752363314

下面是用 matplotlib 畫圖的代碼:

  1. # 將數(shù)據(jù)可視化,設(shè)置圖像大小 
  2. fig = plt.figure(figsize=(10, 8)) 
  3. ax = fig.add_subplot(111) 
  4.  
  5. # 繪制散點圖 
  6. ax.scatter(x, y, color='#0085c3', s=100) 
  7. ax.scatter(z, predict, color='#dc5034', marker='*', s=260) 
  8.  
  9. # 設(shè)置標(biāo)簽等 
  10. plt.xlabel('年份', fontsize=20) 
  11. plt.ylabel('雙 11 交易額', fontsize=20) 
  12. plt.tick_params(labelsize=20) 
  13.  
  14. # 繪制預(yù)測的直線 
  15. x2 = np.concatenate([x, z]) 
  16. y2 = poly_reg.predict(x2) 
  17. plt.plot(x2, y2, '-', c='#7ab800') 
  18. plt.title('用多項式回歸預(yù)測雙 11 的交易額', fontsize=26) 
  19. plt.show() 
如何評價算法的好壞?

這近乎好地擬合了 2009 年以來十一年的數(shù)據(jù),因此不禁讓人懷疑,阿里的數(shù)據(jù)是不是過于好?

3. 優(yōu)化

按照一般的機(jī)器學(xué)習(xí)算法流程,應(yīng)該把數(shù)據(jù)拆分為兩部分,分別稱為訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集。從 2009 年到 2018 年,雙 11 的交易額總共才 10 個數(shù)據(jù),我在預(yù)測的時候還舍棄了前 5 個數(shù)據(jù),最后只剩下 5 個數(shù)據(jù),我以為再拆分就沒有必要了。 但機(jī)器學(xué)習(xí)算法的表現(xiàn)好壞,有一個關(guān)鍵因素,就是要有足夠多的數(shù)據(jù)量。

另外,應(yīng)該適當(dāng)?shù)厥褂镁W(wǎng)格搜索法,優(yōu)化算法的參數(shù),必要時還要與交叉驗證法相結(jié)合,進(jìn)行算法評估,從而提高算法的可信度和準(zhǔn)確率。 除了算法的準(zhǔn)確率,還可以使用其他的方法對模型進(jìn)行評價,比如:召回率、F1 分?jǐn)?shù)、ROC、AUC、MSE、RMSE、MAE 等等 。

現(xiàn)實世界是錯綜復(fù)雜的,很難用一個算法就解決問題,往往需要經(jīng)過很多次的嘗試,才可能找到基本符合的模型。需要注意的是,多項式回歸的指數(shù)不宜過高,否則算法太復(fù)雜,很可能出現(xiàn)“過擬合”的現(xiàn)象,從而泛化能力比較差,也就是說,對于訓(xùn)練數(shù)據(jù)集能夠很好地擬合,但是對于測試數(shù)據(jù)集的預(yù)測誤差比較大。模型復(fù)雜度與預(yù)測誤差的大致關(guān)系如下圖所示:

如何評價算法的好壞?

小結(jié)

本文是我在用線性回歸算法預(yù)測雙 11 的交易額之后,做的一次復(fù)盤,總結(jié)了改進(jìn)的思路,學(xué)習(xí)優(yōu)化的方法。

學(xué)以致用,是我學(xué)習(xí)的基本原則。如果害怕出錯,不去勇于實踐,學(xué)習(xí)再多算法有什么用?這就如同我們不能指望不下水就學(xué)會游泳一樣。

標(biāo)題名稱:如何評價算法的好壞?
網(wǎng)址分享:http://www.muchs.cn/news18/97618.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供移動網(wǎng)站建設(shè)、自適應(yīng)網(wǎng)站網(wǎng)站內(nèi)鏈、網(wǎng)站制作、網(wǎng)站排名云服務(wù)器

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

外貿(mào)網(wǎng)站制作