一、為什么要學習吳恩達的機器學習
比較適合初學者,具備一些基礎的數學知識就可以拿來學習,課后有一些assignment 可以很快的測驗自己的學習情況,以短小視頻的形式快速的講解一個概念,而且講解比較通俗易懂,例子也都是實際項目中的,比較前沿。在此基礎上 繼續下去就不會太吃力
這是2017年最新的吳恩達的教學視頻網頁鏈接,可以去看看
二、數據降維特征值為負需要舍去數據嘛?
經過這幾天面試后,我發現數據降維這一塊在工業界用的很多或者說必不可少,因此,這方面需要重點關注。今天,我將數據降維總結于此,包括他人成果,這里對他們的內容表示感謝。
Method
對數據降維作用有多個角度的理解。吳恩達在他的視頻中說,降維是用于數據壓縮,降低噪聲,防止運行太慢內存太小;當降到2或3維可以可視化操作,便于數據分析;不要將降維用于防止過擬合,容易去掉和標簽有關的重要特征。但是數據為何需要壓縮,除了占用內存以外還有沒有別的原因——“維度災難”問題:維度越高,你的數據在每個特征維度上的分布就越稀疏,這對機器學習算法基本都是災難性的。最后導致的可能是每個樣本都有自己的特征,無法形成區別是正例還是負例的統一特征。還有另外一個情況當特征多于樣本量時,一些分類算法(SVM)是失效的,這與分類算法原理有關。
數據降維方法:
?
線性降維方法:
主成分分析(PCA)和判別分析方法(LDA)
關于PCA的理解:
1、PCA可以理解為高維數據投影到低維,并使得投影誤差最小。是一種無監督將為方法。
2、還可以理解為對坐標旋轉和平移(對應著坐標變換和去中心化),從而使得n維空間能在n-1維分析,同時去掉方差小的特征(方差小,不確定度小,信息量小)
3、PCA的推導
4、PCA與SVD的聯系
(從矩陣分解角度理解PCA)
5、PCA降維的應用
6、PCA 的缺點:
(1)pca是線性降維方法,有時候數據之間的非線性關系是很重要的,這時候我們用pca會得到很差的結果。所有接下來我們引入核方法的pca。
(2)主成分分析法只在樣本點服從高斯分布的時候比較有效。
(3) 存在不平衡數據的降維可以采用代價敏感PCA(CSPCA)
(4)特征根的大小決定了我們感興趣信息的多少。即小特征根往往代表了噪聲,但實際上,向小一點的特征根方向投影也有可能包括我們感興趣的數據;
(5)特征向量的方向是互相正交(orthogonal)的,這種正交性使得PCA容易受到Outlier的影響
(6)難于解釋結果。例如在建立線性回歸模型(Linear Regression Model)分析因變量
三、計算機視覺有哪些比較好的公開課
計算機視覺是一門研究如何使機器“看”的科學,更進一步的說,就是是指用攝影機和電腦代替人眼對目標進行識別、跟蹤和測量等機器視覺,并進一步做圖形處理,使電腦處理成為更適合人眼觀察或傳送給儀器檢測的圖像。作為一個科學學科,計算機視覺研究相關的理論和技術,試圖建立能夠從圖像或者多維數據中獲取‘信息’的人工智能系統。這里所 指的信息指shannon定義的,可以用來幫助做一個“決定”的信息。因為感知可以看作是從感官信號中提 取信息,所以計算機視覺也可以看作是研究如何使人工系統從圖像或多維數據中“感知”的科學。
四、自學人工智能可行嗎?
可以是可以,網課能學,但一般人沒有毅力學下來
五、人工智能包括哪些內容?
傳媒大學聲學博士為你講述博士有什么不一樣