免费久久国产&夜夜毛片&亚洲最大无码中文字幕&国产成人无码免费视频之奶水&吴家丽查理三级做爰&国产日本亚欧在线观看

訂閱
糾錯
加入自媒體

機器學習:開啟智能創新之門

2017-10-23 09:59
來源: e-works

    2.無監督學習(Unsupervised Learning)

給學習算法提供的數據是未標記的,并且要求算法識別輸入數據中的模式,主要是建立一個模型,用其試著對輸入的數據進行解釋,并用于下次輸入。現實情況下往往很多數據集都有大量的未標記樣本,有標記的樣本反而比較少。如果直接棄用,很大程度上會導致模型精度低。這種情況解決的思路往往是結合有標記的樣本,通過估計的方法把未標記樣本變為偽的有標記樣本,所以無監督學習比監督學習更難掌握。主要用于解決聚類和降維問題,常見的算法有:

(1)聚類算法:把一組對象分組化的任務,使得在同一組的對象比起其它組的對象,它們彼此更加相似。常用的聚類算法包括:

①K-means算法:這是典型的基于原型的目標函數聚類方法的代表,它是數據點到原型的某種距離作為優化的目標函數,利用函數求極值的方法得到迭代運算的調整規則。其優點是算法足夠快速、簡單,并且如果預處理數據和特征工程十分有效,那么該聚類算法將擁有極高的靈活性。缺點是該算法需要指定集群的數量,而K值的選擇通常都不是那么容易確定的。另外,如果訓練數據中的真實集群并不是類球狀的,那么K均值聚類會得出一些比較差的集群。

機器學習:開啟智能創新之門

圖15  K-means算法

②Expectation Maximisation (EM):這是一種迭代算法,用于含有隱變量(latent variable)的概率參數模型的最大似然估計或極大后驗概率估計。EM算法的主要目的是提供一個簡單的迭代算法計算后驗密度函數,它的最大優點是簡單和穩定,但容易陷入局部最優。

機器學習:開啟智能創新之門

圖16  EM算法

③Affinity Propagation 聚類:AP 聚類算法是一種相對較新的聚類算法,該聚類算法基于兩個樣本點之間的圖形距離(graph distances)確定集群。采用該聚類方法的集群擁有更小和不相等的大小。優點:該算法不需要指出明確的集群數量。缺點:AP 聚類算法主要的缺點就是訓練速度比較慢,并需要大量內存,因此也就很難擴展到大數據集中。另外,該算法同樣假定潛在的集群是類球狀的。

④層次聚類(Hierarchical Clustering):層次聚類是一系列基于以下概念的聚類算法:是通過對數據集按照某種方法進行層次分解,直到滿足某種條件為止。按照分類原理的不同,可以分為凝聚和分裂兩種方法。優點:層次聚類最主要的優點是集群不再需要假設為類球形。另外其也可以擴展到大數據集。缺點:有點像 K 均值聚類,該算法需要設定集群的數量。

機器學習:開啟智能創新之門

圖17  層次聚類算法

⑤DBSCAN:這是一個比較有代表性的基于密度的聚類算法。與劃分和層次聚類方法不同,它將簇定義為密度相連的點的最大集合,能夠把具有足夠高密度的區域劃分為簇,并可在噪聲的空間數據庫中發現任意形狀的聚類。它將樣本點的密集區域組成一個集群。優點:DBSCAN 不需要假設集群為球狀,并且它的性能是可擴展的。此外,它不需要每個點都被分配到一個集群中,這降低了集群的異常數據。缺點:用戶必須要調整「epsilon」和「min_sample」這兩個定義了集群密度的超參數。DBSCAN 對這些超參數非常敏感。

機器學習:開啟智能創新之門

圖18 DBSCAN算法

(2)降維算法:其主要特征是將數據從高維降低到低維層次,最大程度的保留了數據的信息。代表算法是:

①主要代表是主成分分析算法(PCA算法):主成分分析也稱主分量分析,旨在利用降維的思想,把多指標轉化為少數幾個綜合指標(即主成分),其中每個主成分都能夠反映原始變量的大部分信息,且所含信息互不重復。這種方法在引進多方面變量的同時將復雜因素歸結為幾個主成分,使問題簡單化,同時得到的結果更加科學有效的數據信息。

機器學習:開啟智能創新之門

圖19  PCA算法

②局部線性嵌入(Locally linear embeddingLLE)LLE降維算法:一種非線性降維算法,它能夠使降維后的數據較好地保持原有 流形結構 。該算法是針對非線性信號特征矢量維數的優化方法,這種維數優化并不是僅僅在數量上簡單的約簡,而是在保持原始數據性質不變的情況下,將高維空間的信號映射到低維空間上,即特征值的二次提取。

機器學習:開啟智能創新之門

圖20  LLE降維算法

3.強化學習(Reinforcement Learning)
    該算法與動態環境相互作用,把環境的反饋作為輸入,通過學習選擇能達到其目標的最優動作。強化學習這一方法背后的數學原理與監督/非監督學習略有差異。監督/非監督學習更多地應用了統計學,而強化學習更多地結合了離散數學、隨機過程這些數學方法。常見的算法有:

①TD(λ)算法:TD(temporal differenee)學習是強化學習技術中最主要的學習技術之一.TD學習是蒙特卡羅思想和動態規劃思想的結合,即一方面TD算法在不需要系統模型情況下可以直接從agent經驗中學習;另一方面TD算法和動態規劃一樣,利用估計的值函數進行迭代。

機器學習:開啟智能創新之門

圖21  TD(λ)算法

②Q_learning算法:Q_learning學習是一種模型無關的強化學習算法 ,又稱為離策略TD學習(off-policy TD).不同于TD算法,Q_learning迭代時采用狀態_動作對的獎賞和Q (s,a)作為估計函數,在Agent每一次學習迭代時都需要考察每一個行為,可確保學習過程收斂。

機器學習:開啟智能創新之門

圖22   Q_learning算法

<上一頁  1  2  3  4  5  6  7  8  9  下一頁>  余下全文
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號