一、機(jī)器學(xué)習(xí)的算法和普通《算法導(dǎo)論》里的算法有什么本質(zhì)上的異同
普通算法不是學(xué)習(xí)型算法,機(jī)器學(xué)習(xí)算法是讓計算機(jī)學(xué)習(xí),分為監(jiān)督學(xué)習(xí),無監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí)
二、svm在多類分類算法中的分析和應(yīng)用
SVM是Support Vector Machine 的縮寫,翻譯過來就是支持向量機(jī),屬于一種機(jī)器學(xué)習(xí)算法,類似于人工神經(jīng)網(wǎng)絡(luò),但是分類的效果好于神經(jīng)網(wǎng)絡(luò),而且算法固定,不會出現(xiàn)網(wǎng)絡(luò)輸出不收斂或者隨機(jī)性較大的情況。
svm本身是一個二元分類器,你要進(jìn)行多元分類,必須構(gòu)造多分類算法,常見的是 一對一 和 一對多 算法。網(wǎng)上關(guān)于支持向量機(jī)的論文很多,常用的計算工具有基于 MATLAB 的 OSU-SVM 工具包 和 LS-SVM 工具包,效果都還不錯。
三、機(jī)器學(xué)習(xí)算法中調(diào)參是什么?
是指類似于learning rate的參數(shù),還是指theta?
如果是后者用梯度下降法等就可以調(diào)參,如果是前者麻煩一點(diǎn),需要判斷一下,也可以可變參數(shù),如果該參數(shù)工作效果沒有再高過以前的精準(zhǔn)度并且過10次(也可以是其它次數(shù)),那么就判斷該learning rate為最好的。