包含多元高斯函數(shù)python的詞條

如何生成二維高斯與 Python

在圖像處理以及圖像特效中,經(jīng)常會(huì)用到一種成高斯分布的蒙版,蒙版可以用來(lái)做圖像融合,將不同內(nèi)容的兩張圖像結(jié)合蒙版,可以營(yíng)造不同的藝術(shù)效果。

創(chuàng)新互聯(lián)建站專注于海西企業(yè)網(wǎng)站建設(shè),成都響應(yīng)式網(wǎng)站建設(shè)公司,商城網(wǎng)站建設(shè)。海西網(wǎng)站建設(shè)公司,為海西等地區(qū)提供建站服務(wù)。全流程按需策劃設(shè)計(jì),專業(yè)設(shè)計(jì),全程項(xiàng)目跟蹤,創(chuàng)新互聯(lián)建站專業(yè)和態(tài)度為您提供的服務(wù)

I=M?F+(1?M)?B

這里I?表示合成后的圖像,F(xiàn)?表示前景圖,B?表示背景圖,M?表示蒙版,或者直接用 蒙版與圖像相乘, 形成一種漸變映射的效果。如下所示。

I=M?F

這里介紹一下高斯分布蒙版的特性,并且用Python實(shí)現(xiàn)。

高斯分布的蒙版,簡(jiǎn)單來(lái)說(shuō),就是一個(gè)從中心擴(kuò)散的亮度分布圖,如下所示:

亮度的范圍從 1 到 0, 從中心到邊緣逐漸減弱,中心的亮度值最高為1,邊緣的亮度值最低為 0. 圖像上任何一點(diǎn)的亮度值為:

G(i,j)=exp?d2R

其中?i,j?表示圖像上任何一點(diǎn)的坐標(biāo),以左上角為坐標(biāo)原點(diǎn),d?表示 圖像上任何一點(diǎn) 到圖像中心點(diǎn)的距離,R?表示圖像的半徑。假設(shè)圖像的高為?H?寬為?W

R=(H/2)2+(W/2)2??????????????√=12H2+W2????????√

d=(i?H/2)2+(j?W/2)2???????????????????√

IMAGE_WIDTH = 512IMAGE_HEIGHT = 392center_x = IMAGE_WIDTH/2center_y = IMAGE_HEIGHT/2R = np.sqrt(center_x**2 + center_y**2)Gauss_map = np.zeros((IMAGE_HEIGHT, IMAGE_WIDTH))# 利用 for 循環(huán) 實(shí)現(xiàn)for i in range(IMAGE_HEIGHT):

for j in range(IMAGE_WIDTH):

dis = np.sqrt((i-center_y)**2+(j-center_x)**2)

Gauss_map[i, j] = np.exp(-0.5*dis/R)# 直接利用矩陣運(yùn)算實(shí)現(xiàn)mask_x = np.matlib.repmat(center_x, IMAGE_HEIGHT, IMAGE_WIDTH)mask_y = np.matlib.repmat(center_y, IMAGE_HEIGHT, IMAGE_WIDTH)x1 = np.arange(IMAGE_WIDTH)x_map = np.matlib.repmat(x1, IMAGE_HEIGHT, 1)y1 = np.arange(IMAGE_HEIGHT)y_map = np.matlib.repmat(y1, IMAGE_WIDTH, 1)y_map = np.transpose(y_map)Gauss_map = np.sqrt((x_map-mask_x)**2+(y_map-mask_y)**2)Gauss_map = np.exp(-0.5*Gauss_map/R)# 顯示和保存生成的圖像plt.figure()

plt.imshow(Gauss_map, plt.cm.gray)

plt.imsave('out_2.jpg', Gauss_map, cmap=plt.cm.gray)

plt.show()

多元高斯分布是什么?

高斯分布(Gaussian distribution)又名正態(tài)分布(Normal distribution),是一個(gè)在數(shù)學(xué)、物理及工程等領(lǐng)域都非常重要的概率分布,在統(tǒng)計(jì)學(xué)的許多方面有著重大的影響力。若隨機(jī)變量X服從一個(gè)數(shù)學(xué)期望為μ、方差為σ^2的高斯分布,記為N(μ,σ^2)。其概率密度函數(shù)為正態(tài)分布的期望值μ決定了其位置,其標(biāo)準(zhǔn)差σ決定了分布的幅度。因其曲線呈鐘形,因此人們又經(jīng)常稱之為鐘形曲線。我們通常所說(shuō)的標(biāo)準(zhǔn)正態(tài)分布是μ = 0,σ = 1的正態(tài)分布。

多元是指樣本以多個(gè)變量來(lái)描述,或具有多個(gè)屬性,在此一般用d維特征向量表示,X=[x1,…,xd]T。d維特征向量的正態(tài)分布用下式表示

(2-32)

其中μ是X的均值向量,也是d維,

μ=E{X}=[μ1,μ2,…,μd]T?(2-33)

Σ是d×d維協(xié)方差矩陣,而Σ-1是Σ的逆矩陣,|Σ|是Σ的行列式

Σ=E{(X-μ)(X-μ)T} (2-34)

Σ是非負(fù)矩陣,在此我們只考慮正定陣,即|Σ|>0。

多元正態(tài)分布與單態(tài)量正態(tài)分布在形式上盡管不同,但有很多相似之處,實(shí)際上單變量正態(tài)分布只是維數(shù)為1的多元分布。當(dāng)d=1時(shí),Σ只是一個(gè)1×1的矩陣,也就是只有1個(gè)元素的矩陣,退化成一個(gè)數(shù),|Σ|1/2也就是標(biāo)準(zhǔn)差σ,Σ-1也就是σ-2,而(X-μ)T(X-μ)也變成(X-μ)2,因此(2-32)也就演變成(2-29)。但是多元正態(tài)分布要比單變量時(shí)復(fù)雜得多,具有許多重要的特性,下面只就有關(guān)的特性加以簡(jiǎn)單敘述。

2021-02-08 Python OpenCV GaussianBlur()函數(shù)

borderType= None)函數(shù)

此函數(shù)利用高斯濾波器平滑一張圖像。該函數(shù)將源圖像與指定的高斯核進(jìn)行卷積。

src:輸入圖像

ksize:(核的寬度,核的高度),輸入高斯核的尺寸,核的寬高都必須是正奇數(shù)。否則,將會(huì)從參數(shù)sigma中計(jì)算得到。

dst:輸出圖像,尺寸與輸入圖像一致。

sigmaX:高斯核在X方向上的標(biāo)準(zhǔn)差。

sigmaY:高斯核在Y方向上的標(biāo)準(zhǔn)差。默認(rèn)為None,如果sigmaY=0,則它將被設(shè)置為與sigmaX相等的值。如果這兩者都為0,則它們的值會(huì)從ksize中計(jì)算得到。計(jì)算公式為:

borderType:像素外推法,默認(rèn)為None(參考官方文檔 BorderTypes

)

在圖像處理中,高斯濾波主要有兩種方式:

1.窗口滑動(dòng)卷積

2.傅里葉變換

在此主要利用窗口滑動(dòng)卷積。其中二維高斯函數(shù)公式為:

根據(jù)上述公式,生成一個(gè)3x3的高斯核,其中最重要的參數(shù)就是標(biāo)準(zhǔn)差 ,標(biāo)準(zhǔn)差 越大,核中心的值與周?chē)闹挡罹嘣叫?,曲線越平滑。標(biāo)準(zhǔn)差 越小,核中心的值與周?chē)闹挡罹嘣酱螅€越陡峭。

從圖像的角度來(lái)說(shuō),高斯核的標(biāo)準(zhǔn)差 越大,平滑效果越不明顯。高斯核的標(biāo)準(zhǔn)差 越小,平滑效果越明顯。

可見(jiàn),標(biāo)準(zhǔn)差 越大,圖像平滑程度越大

參考博客1:關(guān)于GaussianBlur函數(shù)

參考博客2:關(guān)于高斯核運(yùn)算

[譯] 高斯混合模型 --- python教程

本文翻譯自

上一節(jié)中探討的k-means聚類(lèi)模型簡(jiǎn)單易懂,但其簡(jiǎn)單性導(dǎo)致其應(yīng)用中存在實(shí)際挑戰(zhàn)。具體而言,k-means的非概率特性及簡(jiǎn)單地計(jì)算點(diǎn)與類(lèi)蔟中心的歐式距離來(lái)判定歸屬,會(huì)導(dǎo)致其在許多真實(shí)的場(chǎng)景中性能較差。本節(jié),我們將探討高斯混合模型(GMMs),其可以看成k-means的延伸,更可以看成一個(gè)強(qiáng)有力的估計(jì)工具,而不僅僅是聚類(lèi)。

我們將以一個(gè)標(biāo)準(zhǔn)的import開(kāi)始

我們看下k-means的缺陷,思考下如何提高聚類(lèi)模型。正如上一節(jié)所示,給定簡(jiǎn)單,易于分類(lèi)的數(shù)據(jù),k-means能找到合適的聚類(lèi)結(jié)果。

舉例而言,假設(shè)我們有些簡(jiǎn)單的數(shù)據(jù)點(diǎn),k-means算法能以某種方式很快地將它們聚類(lèi),跟我們?nèi)庋鄯直娴慕Y(jié)果很接近:

從直觀的角度來(lái)看,我可能期望聚類(lèi)分配時(shí),某些點(diǎn)比其他的更確定:舉例而言,中間兩個(gè)聚類(lèi)之間似乎存在非常輕微的重疊,這樣我們可能對(duì)這些數(shù)據(jù)點(diǎn)的分配沒(méi)有完全的信心。不幸的是,k-means模型沒(méi)有聚類(lèi)分配的概率或不確定性的內(nèi)在度量(盡管可能使用bootstrap 的方式來(lái)估計(jì)這種不確定性)。為此,我們必須考慮泛化這種模型。

k-means模型的一種理解思路是,它在每個(gè)類(lèi)蔟的中心放置了一個(gè)圈(或者,更高維度超球面),其半徑由聚類(lèi)中最遠(yuǎn)的點(diǎn)確定。該半徑充當(dāng)訓(xùn)練集中聚類(lèi)分配的一個(gè)硬截?cái)啵喝魏稳ν獾臄?shù)據(jù)點(diǎn)不被視為該類(lèi)的成員。我們可以使用以下函數(shù)可視化這個(gè)聚類(lèi)模型:

觀察k-means的一個(gè)重要發(fā)現(xiàn),這些聚類(lèi)模式必須是圓形的。k-means沒(méi)有內(nèi)置的方法來(lái)計(jì)算橢圓形或橢圓形的簇。因此,舉例而言,假設(shè)我們將相同的數(shù)據(jù)點(diǎn)作變換,這種聚類(lèi)分配方式最終變得混亂:

高斯混合模型(GMM)試圖找到一個(gè)多維高斯概率分布的混合,以模擬任何輸入數(shù)據(jù)集。在最簡(jiǎn)單的情況下,GMM可用于以與k-means相同的方式聚類(lèi)。

但因?yàn)镚MM包含概率模型,因此可以找到聚類(lèi)分配的概率方式 - 在Scikit-Learn中,通過(guò)調(diào)用predict_proba方法實(shí)現(xiàn)。它將返回一個(gè)大小為[n_samples, n_clusters]的矩陣,用于衡量每個(gè)點(diǎn)屬于給定類(lèi)別的概率:

我們可以可視化這種不確定性,比如每個(gè)點(diǎn)的大小與預(yù)測(cè)的確定性成比例;如下圖,我們可以看到正是群集之間邊界處的點(diǎn)反映了群集分配的不確定性:

本質(zhì)上說(shuō),高斯混合模型與k-means非常相似:它使用期望-最大化的方式,定性地執(zhí)行以下操作:

有了這個(gè),我們可以看看四成分的GMM為我們的初始數(shù)據(jù)提供了什么:

同樣,我們可以使用GMM方法來(lái)擬合我們的拉伸數(shù)據(jù)集;允許full的協(xié)方差,該模型甚至可以適應(yīng)非常橢圓形,伸展的聚類(lèi)模式:

這清楚地表明GMM解決了以前遇到的k-means的兩個(gè)主要實(shí)際問(wèn)題。

如果看了之前擬合的細(xì)節(jié),你將看到covariance_type選項(xiàng)在每個(gè)中都設(shè)置不同。該超參數(shù)控制每個(gè)類(lèi)簇的形狀的自由度;對(duì)于任意給定的問(wèn)題,必須仔細(xì)設(shè)置。默認(rèn)值為covariance_type =“diag”,這意味著可以獨(dú)立設(shè)置沿每個(gè)維度的類(lèi)蔟大小,并將得到的橢圓約束為與軸對(duì)齊。一個(gè)稍微簡(jiǎn)單和快速的模型是covariance_type =“spherical”,它約束了類(lèi)簇的形狀,使得所有維度都相等。盡管它并不完全等效,其產(chǎn)生的聚類(lèi)將具有與k均值相似的特征。更復(fù)雜且計(jì)算量更大的模型(特別是隨著維數(shù)的增長(zhǎng))是使用covariance_type =“full”,這允許將每個(gè)簇建模為具有任意方向的橢圓。

對(duì)于一個(gè)類(lèi)蔟,下圖我們可以看到這三個(gè)選項(xiàng)的可視化表示:

盡管GMM通常被歸類(lèi)為聚類(lèi)算法,但從根本上說(shuō)它是一種密度估算算法。也就是說(shuō),GMM適合某些數(shù)據(jù)的結(jié)果在技術(shù)上不是聚類(lèi)模型,而是描述數(shù)據(jù)分布的生成概率模型。

例如,考慮一下Scikit-Learn的make_moons函數(shù)生成的一些數(shù)據(jù):

如果我們嘗試用視為聚類(lèi)模型的雙成分的GMM模擬數(shù)據(jù),則結(jié)果不是特別有用:

但是如果我們使用更多成分的GMM模型,并忽視聚類(lèi)的類(lèi)別,我們會(huì)發(fā)現(xiàn)更接近輸入數(shù)據(jù)的擬合:

這里,16個(gè)高斯分布的混合不是為了找到分離的數(shù)據(jù)簇,而是為了對(duì)輸入數(shù)據(jù)的整體分布進(jìn)行建模。這是分布的一個(gè)生成模型,這意味著GMM為我們提供了生成與我們的輸入類(lèi)似分布的新隨機(jī)數(shù)據(jù)的方法。例如,以下是從這個(gè)16分量GMM擬合到我們?cè)紨?shù)據(jù)的400個(gè)新點(diǎn):

GMM非常方便,可以靈活地建模任意多維數(shù)據(jù)分布。

GMM是一種生成模型這一事實(shí)為我們提供了一種確定給定數(shù)據(jù)集的最佳組件數(shù)的自然方法。生成模型本質(zhì)上是數(shù)據(jù)集的概率分布,因此我們可以簡(jiǎn)單地評(píng)估模型下數(shù)據(jù)的可能性,使用交叉驗(yàn)證來(lái)避免過(guò)度擬合。校正過(guò)度擬合的另一種方法是使用一些分析標(biāo)準(zhǔn)來(lái)調(diào)整模型可能性,例如 Akaike information criterion (AIC) 或 Bayesian information criterion (BIC) 。Scikit-Learn的GMM估計(jì)器實(shí)際上包含計(jì)算這兩者的內(nèi)置方法,因此在這種方法上操作非常容易。

讓我們看看在moon數(shù)據(jù)集中,使用AIC和BIC函數(shù)確定GMM組件數(shù)量:

最佳的聚類(lèi)數(shù)目是使得AIC或BIC最小化的值,具體取決于我們希望使用的近似值。 AIC告訴我們,我們上面選擇的16個(gè)組件可能太多了:大約8-12個(gè)組件可能是更好的選擇。與此類(lèi)問(wèn)題一樣,BIC建議使用更簡(jiǎn)單的模型。

注意重點(diǎn):這個(gè)組件數(shù)量的選擇衡量GMM作為密度估算器的效果,而不是它作為聚類(lèi)算法的效果。我鼓勵(lì)您將GMM主要視為密度估算器,并且只有在簡(jiǎn)單數(shù)據(jù)集中保證時(shí)才將其用于聚類(lèi)。

我們剛剛看到了一個(gè)使用GMM作為數(shù)據(jù)生成模型的簡(jiǎn)單示例,以便根據(jù)輸入數(shù)據(jù)定義的分布創(chuàng)建新樣本。在這里,我們將運(yùn)行這個(gè)想法,并從我們以前使用過(guò)的標(biāo)準(zhǔn)數(shù)字語(yǔ)料庫(kù)中生成新的手寫(xiě)數(shù)字。

首先,讓我們使用Scikit-Learn的數(shù)據(jù)工具加載數(shù)字?jǐn)?shù)據(jù):

接下來(lái)讓我們繪制前100個(gè),以準(zhǔn)確回憶我們正在看的內(nèi)容:

我們有64個(gè)維度的近1,800位數(shù)字,我們可以在這些位置上構(gòu)建GMM以產(chǎn)生更多。 GMM可能難以在如此高維空間中收斂,因此我們將從數(shù)據(jù)上的可逆維數(shù)減少算法開(kāi)始。在這里,我們將使用一個(gè)簡(jiǎn)單的PCA,要求它保留99%的預(yù)測(cè)數(shù)據(jù)方差:

結(jié)果是41個(gè)維度,減少了近1/3,幾乎沒(méi)有信息丟失。根據(jù)這些預(yù)測(cè)數(shù)據(jù),讓我們使用AIC來(lái)計(jì)算我們應(yīng)該使用的GMM組件的數(shù)量:

似乎大約110個(gè)components最小化了AIC;我們將使用這個(gè)模型。我們迅速將其與數(shù)據(jù)擬合并確保它已收斂合:

現(xiàn)在我們可以使用GMM作為生成模型在這個(gè)41維投影空間內(nèi)繪制100個(gè)新點(diǎn)的樣本:

最后,我們可以使用PCA對(duì)象的逆變換來(lái)構(gòu)造新的數(shù)字:

大部分結(jié)果看起來(lái)像數(shù)據(jù)集中合理的數(shù)字!

考慮一下我們?cè)谶@里做了什么:給定一個(gè)手寫(xiě)數(shù)字的樣本,我們已經(jīng)模擬了數(shù)據(jù)的分布,這樣我們就可以從數(shù)據(jù)中生成全新的數(shù)字樣本:這些是“手寫(xiě)數(shù)字”,不是單獨(dú)的出現(xiàn)在原始數(shù)據(jù)集中,而是捕獲混合模型建模的輸入數(shù)據(jù)的一般特征。這種數(shù)字生成模型可以證明作為貝葉斯生成分類(lèi)器的一個(gè)組成部分非常有用,我們將在下一節(jié)中看到。

怎么用python表示出二維高斯分布函數(shù),mu表示均值,sigma表示協(xié)方差矩陣,x表示數(shù)據(jù)點(diǎn)

clear?

close?all

%%%%%%%%%%%%%%%%%%%%%%%%%生成實(shí)驗(yàn)數(shù)據(jù)集

rand('state',0)

sigma_matrix1=eye(2);

sigma_matrix2=50*eye(2);

u1=[0,0];

u2=[30,30];

m1=100;

m2=300;%樣本數(shù)

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%sm1數(shù)據(jù)集

Y1=multivrandn(u1,m1,sigma_matrix1);

Y2=multivrandn(u2,m2,sigma_matrix2);

scatter(Y1(:,1),Y1(:,2),'bo')

hold?on

scatter(Y2(:,1),Y2(:,2),'r*')

title('SM1數(shù)據(jù)集')

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%sm2數(shù)據(jù)集

u11=[0,0];

u22=[5,5];

u33=[10,10];

u44=[15,15];

m=600;

sigma_matrix3=2*eye(2);

Y11=multivrandn(u11,m,sigma_matrix3);

Y22=multivrandn(u22,m,sigma_matrix3);

Y33=multivrandn(u33,m,sigma_matrix3);

Y44=multivrandn(u44,m,sigma_matrix3);

figure(2)

scatter(Y11(:,1),Y11(:,2),'bo')

hold?on

scatter(Y22(:,1),Y22(:,2),'r*')

scatter(Y33(:,1),Y33(:,2),'go')

scatter(Y44(:,1),Y44(:,2),'c*')

title('SM2數(shù)據(jù)集')

end

function?Y?=?multivrandn(u,m,sigma_matrix)

%%生成指定均值和協(xié)方差矩陣的高斯數(shù)據(jù)

n=length(u);

c?=?chol(sigma_matrix);

X=randn(m,n);

Y=X*c+ones(m,1)*u;

end

GDA和Logistic方法的區(qū)別及相應(yīng)的python代碼

GDA方法與Logistic方法的主要區(qū)別在于這兩個(gè)模型的假設(shè)不同:GDA方法假設(shè)p(x|y)服從多元高斯分布,并且輸入特征是連續(xù)的;Logistic方法并沒(méi)有GDA那么強(qiáng)的假設(shè),它既沒(méi)有要求p(x|y)服從多元高斯分布,也沒(méi)有要求輸入特征是連續(xù)的。因此Logistic的適用范圍比GDA更加廣泛。例如:如果輸入特征符合泊松分布,則Logistic得到的結(jié)果會(huì)比GDA更加準(zhǔn)確。如果輸入特征滿足GDA的要求時(shí),既可以用Logistic方法也可以用GDA,但是在這種情況下GDA得到的結(jié)果會(huì)比Logistic方法得到的結(jié)果準(zhǔn)確些。下面給出GDA和Logistic方法的簡(jiǎn)要說(shuō)明,最后給出相應(yīng)的 python代碼。

GDA是一種生成學(xué)習(xí)法,主要利用貝葉斯準(zhǔn)則得到后驗(yàn)分布律,然后通過(guò)最大后驗(yàn)分布對(duì)輸入數(shù)據(jù)進(jìn)行分類(lèi)。簡(jiǎn)單地說(shuō),也就是在給定某個(gè)特征情況下,擁有此特征的數(shù)據(jù)屬于哪個(gè)類(lèi)的概率大 就屬于哪個(gè)類(lèi)。GDA的優(yōu)勢(shì):由于有高斯分布的先驗(yàn)信息,如果確實(shí)符合實(shí)際數(shù)據(jù),則只需要少量的樣本就可以得到較好的模型。

Logistic是一種判別想學(xué)習(xí)法,判別學(xué)習(xí)法通過(guò)建立輸入數(shù)據(jù)與輸出信息之間的映射關(guān)系學(xué)得p(y|x),這個(gè)與生成學(xué)習(xí)法是不同的。在生成學(xué)習(xí)法中首先要確定p(x|y)和p(y)。Logistic主要是通過(guò)sigmoid函數(shù)來(lái)確定輸入數(shù)據(jù)及是將如何進(jìn)行分類(lèi)的。Logistic的優(yōu)勢(shì):具有更高的魯棒性和對(duì)數(shù)據(jù)的分布不明感(不想GDA那樣需要特征服從高斯分布)。

下面是具體的python代碼:

一、GDA模型的python代碼:

點(diǎn)擊(此處)折疊或打開(kāi)

def GDA(dataIn, classLabel):

m = len(classLabel);

sum_1 = sum(classLabel);

q = sum_1/(float(m));

notLabel = ones((len(classLabel),),dtype=int)-array(classLabel);

row,col = shape(dataIn);

y0x = y1x = mat(zeros(col));

for i in range(m):

y0x += mat(dataIn[i])*notLabel[i];

y1x += mat(dataIn[i])*classLabel[i];

mean_0 = y0x/(m-sum_1);

mean_1 = y1x/sum_1;

correlation = 0;

for i in range(m):

correlation += (mat(dataIn[i]-mean_0)).T*(mat(dataIn[i]-mean_0))*notLabel[i] \

+(mat(dataIn[i]-mean_1)).T*(mat(dataIn[i]-mean_1))*classLabel[i];

correlation = correlation/m;

return q,mean_0,mean_1,correlation;

def calculate_pxy0(x,n=2):

return ((2*math.pi)**(-n/2))*(linalg.det(correlation)**(-0.5))*exp(-0.5*(x-mean_0).T*correlation.I*(x-mean_0));

def calculate_pxy1(n=2):

return ((2*math.pi)**(-n/2))*(linalg.det(correlation)**(-0.5))*exp(-0.5*(x-mean_1).T*correlation.I*(x-mean_1));

def GDAClass(testPoint,dataIn,classLabel):

import math;

x = testPoint;

q,mean_0,mean_1,correlation = GDA(dataIn,classLabel);

n=shape(dataIn)[0];

py0 = 1-q;

py1 = q;

pxy0 = calculate_pxy0(x,n);

pxy1 = calculate_pxy1(x,n);

if pxy0*py0 pxy1*py1:

return 0;

return 1;

二、Logistic模型的python代碼:

點(diǎn)擊(此處)折疊或打開(kāi)

def sigmoid(w,x):

return 1/(1+exp(-w*x))

def logisticRegression(xMat,yMat,maxCycles = 500):

'''

ones((m,n)): 產(chǎn)生m維的向量,且每個(gè)值為n

'''

col = shape(xMat)[1];

weight = ones((col,1));

alpha = 0.001;

for j in range(maxCycles):

h = sigmoid(weight,xMat);

err = (yMat-h);

weight += alpha*xMat.transpose*err;

return weight;

名稱欄目:包含多元高斯函數(shù)python的詞條
網(wǎng)頁(yè)網(wǎng)址:http://muchs.cn/article32/phgopc.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供虛擬主機(jī)、靜態(tài)網(wǎng)站定制開(kāi)發(fā)、用戶體驗(yàn)、品牌網(wǎng)站設(shè)計(jì)微信公眾號(hào)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

營(yíng)銷(xiāo)型網(wǎng)站建設(shè)