EM算法也稱期望最大化(Expectation-Maximum,簡稱EM)算法。 它是一個基礎算法,是很多機器學習領域算法的基礎,比如隱式馬爾科夫算法(HMM)等等。 EM算法是一種迭代優(yōu)化策略,由于它的計算方法中每一次迭代都分兩步, 其中一個為期望步(E步), 另一個為極大步(M步), 所以算法被稱為EM算法(Expectation-Maximization Algorithm)。查看全文>>
?人工智能是計算機科學的一個分支,主要研究、開發(fā)用于模擬、延伸和擴展人的智能理論方法技術,以及應用系統(tǒng)的一門新的技術學科。人工智能需要大數(shù)據(jù)來支撐,主要是識別類、感應器方面,現(xiàn)今生活中的智慧家電、智慧工業(yè)、語言識別等都運用了人工智能技術。而機器人是可編程機器,在人工智能的基礎上增加物理外殼,是人工智能研究的產(chǎn)物,是實體的。查看全文>>
數(shù)據(jù)集中的數(shù)據(jù)類型有很多種,除了連續(xù)的特征變量之外,最常見的就是類別型的數(shù)據(jù)了,比如人的性別、學歷、愛好等,這些數(shù)據(jù)類型都不能用連續(xù)的變量來表示,而是用分類的數(shù)據(jù)來表示。 Seaborn針對分類數(shù)據(jù)提供了專門的可視化函數(shù),這些函數(shù)大致可以分為如下三種:查看全文>>
LR(Logistic Regression)和線性回歸(Linear Regression)是兩種常見的回歸算法,用于處理不同類型的問題。下面是它們的區(qū)別與聯(lián)系查看全文>>
在神經(jīng)網(wǎng)絡中,權值的共享是一種優(yōu)化技術,通常用于減少模型參數(shù)數(shù)量以及提升模型的泛化能力。它在卷積神經(jīng)網(wǎng)絡(CNN)中得到廣泛應用,特別是在處理圖像和其他類似結構的數(shù)據(jù)時。查看全文>>
深度學習中模型不收斂并不一定意味著這個模型無效。模型不收斂可能是由多種原因引起的,而且可以采取一些方法來解決這個問題。以下是一些可能的原因和對應的解決方法。查看全文>>