Scikit-learn筆記02_監督式學習(迴歸及分類)_線性迴歸(Linear Regression)
監督式學習(Supervised Learning) 特點: 屬於機器學習算法中較常用的、也是較為成功的模式。 監督式學習的核心概念(輸入 → 輸出)非常直觀,容易理解和實施。 常應用於分類、迴歸問題分析以及時間序列預測等情境。 具有較高的可解釋性,便於商業應用中說明模型的預測邏輯。 可量化的評估,透過標準化的指標(如準確率、均方誤差)進行量化評估和優化。 模型建構於輸入跟輸出配對之訓練資料,對尚未見過的資料做預測。 限制及困難: 標籤數據的獲取可能耗時且昂貴。依賴於帶標籤的數據集(每個輸入樣本都有相應的目標輸出),使得模型可以清楚地學到輸入與輸出的映射關係。 無法處理未見過的類別或樣本 訓練資料通常要耗時人工建立。 常見監督式學習演算法: 線性模型/線性迴歸 (Lineaer Models) 決策樹(Decision Trees)、隨機森林(Random Forests) 最近鄰居法(K-Nearest Neighbors) 支持向量機(SVM) 類神經網路(Neural Networks) 監督式學習任務 1.分類(Classification): 在已定義的離散標籤中預測資料屬於何種標籤(類比數值) 僅兩種標籤的問題又俗稱二元分類,yes/no。比方:信件是否屬於垃圾郵件? 多種標籤問題則稱為多元(類別)分類,比方某筆鳶尾花資料屬於何種品種? 2.迴歸(Regression): 預測連續數值(浮點數、實數) => 預測的是數據 比方:房價趨勢預測、農產收成量預測 https://www.grammarly.com/blog/ai/what-is-linear-regression/ 線性迴歸(Linear Regression) 屬於常見統計方法,也是機器學習起初接觸時優先探討的問題。 目的在於 藉由過去資料找出已經存在的關係 ,並且 利用X來預測Y可能的結果 。 線性迴歸模型指的是X(自變數)跟Y(應變數)之線性關係。 依照自變數多寡可分成 簡單線性迴歸 和 多(複)元迴歸 。 迴歸分析又依照函數型態,細分為線性、非線性。 模型中每一項的權重系數都為這一項對應的特征的重要性提供了直觀的解釋:某一項權重系數的絕對值越大,對應的屬性的影響就越大。 為了不讓問題變得覆雜,不要輕易嘗試非線性模型。 輸出與輸入參數成線性關系的這一假設可以表示為: 數學家不願意...