【用戶】不叫賭俠的陳小刀
【年級】高三下
【評論內容】(D) 線性迴歸(Linear Regression)相較於多層感知機(Multilayer Perceptron)有較大的變異(Variance)-->較小的變異機器學習都用向量或是矩陣來寫數學,不太會用variable來寫,會把所有的 variable都寫到向量或是矩陣內,數學會看起來簡化一點,看習慣的人比較有感觸。(機器學習的數學看起來很複雜,其實核心概念都很簡單,只是為了達成概念用數學描述變的比較複雜,改天寫一篇機器學習用的數學)如果在regression問題時這邊就等於線性回歸(Linear regression),如果在分類問題時就等於線性分類器(linear discriminant classifier),。所以其實迴歸方法/線性分類器只是神經網路的一個特例(Special case),如果有在做機器學習或是統計學習的人都知道,很多新的方法都是在把舊的方法想辦法變成自己的特例。
【用戶】不叫賭俠的陳小刀
【年級】高三下
【評論內容】(D) 線性迴歸(Linear Regression)相較於多層感知機(Multilayer Perceptron)有較大的變異(Variance)-->較小的變異機器學習都用向量或是矩陣來寫數學,不太會用variable來寫,會把所有的 variable都寫到向量或是矩陣內,數學會看起來簡化一點,看習慣的人比較有感觸。(機器學習的數學看起來很複雜,其實核心概念都很簡單,只是為了達成概念用數學描述變的比較複雜,改天寫一篇機器學習用的數學)如果在regression問題時這邊就等於線性回歸(Linear regression),如果在分類問題時就等於線性分類器(linear discriminant classifier),。所以其實迴歸方法/線性分類器只是神經網路的一個特例(Special case),如果有在做機器學習或是統計學習的人都知道,很多新的方法都是在把舊的方法想辦法變成自己的特例。