相似度度量和距離度量在整個機器學習領(lǐng)域都是非?;A(chǔ)的概念,數(shù)據(jù)科學家 Gonzalo Ferreiro Volpi 近日通過淺顯易懂的推薦系統(tǒng)示例介紹了這些概念以及它們的計算方式。
在推薦系統(tǒng)中,我們經(jīng)常談到「相似度度量」這一概念。為什么?因為在推薦系統(tǒng)中,基于內(nèi)容的過濾算法和協(xié)同過濾算法都使用了某種特定的相似度度量來確定兩個用戶或商品的向量之間的相等程度。所以總的來說,相似度度量不僅僅是向量之間的距離。
注:我的所有工作都可在我的 GitHub 頁面查看:https://github.com/gonzaferreiro,其中當然也包括本文內(nèi)容的代碼庫以及有關(guān)推薦系統(tǒng)的更多內(nèi)容。
在任意類型的算法中,最常見的相似度度量是向量之間夾角的余弦,即余弦相似度。設 A 為用戶的電影評分 A 列表,B 為用戶的電影評分 B 列表,那么它們之間的相似度可以這樣計算:
從數(shù)學上看,余弦相似度衡量的是投射到一個多維空間中的兩個向量之間的夾角的余弦。當在多維空間中繪制余弦相似度時,余弦相似度體現(xiàn)的是每個向量的方向關(guān)系(角度),而非幅度。如果你想要幅度,則應計算歐幾里德距離。
余弦相似度很有優(yōu)勢,因為即使兩個相似的文件由于大小而在歐幾里德距離上相距甚遠(比如文檔中出現(xiàn)很多次的某個詞或多次觀看過同一部電影的某用戶),它們之間也可能具有更小的夾角。夾角越小,則相似度越高。
如下例所示,來自 www.machinelearningplus.com
上圖統(tǒng)計了 sachin、dhoni、cricket 這三個詞在所示的三個文檔中的出現(xiàn)次數(shù)。據(jù)此,我們可以繪出這三個向量的圖,從而輕松地看出衡量這些文檔的余弦和歐幾里德距離的差異:
按照定義,常規(guī)余弦相似度反映了方向的差異,而不是位置的差異。因此,使用余弦相似度指標無法考慮到用戶評分這樣的差異。調(diào)整后余弦相似度可以緩解這一問題,具體做法是從每對共同評分的配對減去各自用戶的平均評分,其定義如下:
我們看看下面這個來自 Stack Overflow 的例子,這能更好地解釋余弦相似度和調(diào)整過的余弦相似度之間的差異:
假設一位用戶為兩部電影分別給出了 0~5 的評分。
直觀而言,我們可以看到用戶 b 和 c 的品味相近,而 a 則頗為不同。但常規(guī)的余弦相似度卻給出了不一樣的結(jié)果。在這樣的案例中,計算調(diào)整后余弦相似度能讓我們更好地理解用戶之間的相近程度。
順便一提,在上一篇有關(guān)推薦系統(tǒng)的文章中,我們給出了以下用于計算調(diào)整后余弦相似度的函數(shù):
from scipy import spatial
def adjusted_cos_distance_matrix(size, matrix, row_column):
distances = np.zeros((size,size))
if row_column == 0:
M_u = matrix.mean(axis=1)
m_sub = matrix - M_u[:,None]
if row_column == 1:
M_u = matrix.T.mean(axis=1)
m_sub = matrix.T - M_u[:,None]
for first in range(0,size):
for sec in range(0,size):
distance = spatial.distance.cosine(m_sub[first],m_sub[sec])
distances[first,sec] = distance
return distances
使用這個函數(shù)的方式非常簡單,只需輸入:
matrix:這就是用戶之間的評分或觀點等你衡量的東西或你的業(yè)務商品的原始矩陣。
row_columns:如果你衡量的是列之間的距離,則設為 1;如果你衡量的是行之間的距離,則設為 0;
size:所得矩陣的所需大小。也就是說,當尋找用戶或商品相似度時,這就是用戶或商品的數(shù)量。所以如果有 500 個不同用戶,則距離矩陣的大小就為 500×500。
下面給出了一個參考示例:
user_similarity = adjusted_cos_distance_matrix(n_users,data_matrix,0)
item_similarity = adjusted_cos_distance_matrix(n_items,data_matrix,1)
最后,我們簡要回顧一些可用在推薦系統(tǒng)中計算相似度的其它方法,但也可用于機器學習中其它任何基于距離的算法:
歐幾里德距離:如果繪制在 n 維空間中,相似的項取決于彼此之間的相近程度。
2. 皮爾森相關(guān)性或相關(guān)相似度:告訴了我們兩個項之間的相關(guān)程度。相關(guān)性越高,則相似度越高。
3. 均方差:在于計算用戶評分之間的平均平方差。MSE 更側(cè)重于懲罰更大的錯誤。
然后:
其中 |??????| 是用戶 ?? 和 ?? 都評價過的商品的數(shù)量。
用戶-用戶以及商品-商品相似度示例
我們借助之前介紹推薦系統(tǒng)的文章來簡要回顧一下協(xié)同過濾的工作方式:假設我喜歡《盲刺客》和《莫斯科紳士》這兩本書;我的朋友 Matias 也喜歡《盲刺客》和《莫斯科紳士》,但也還喜歡《Where the crawdads sing》。看起來我與 Matias 有一樣的興趣。所以你可能會想我也會喜歡《Where the crawdads sing》,即使我還沒讀過它。協(xié)同過濾也正是基于這一邏輯,只是你不僅可以比較用戶,也可以比較商品。
我們可視化地比較看看推薦系統(tǒng)的用戶-用戶相似度與商品-商品相似度之間的差異:
用戶-用戶相似度
商品-商品相似度
現(xiàn)在,理解了這一點,我們用下面的示例解釋說明一些度量,我認為這清楚辨明了用戶-用戶以及商品-商品相似度:
用戶-用戶相似度詳解
這里給出了一個用戶電影評分矩陣。為了以更加實用的方式理解這一點,我們先根據(jù)上表計算一下用戶 (A, C) 和 (B, C) 的相似度。用戶 A 和 C 共同評分的電影是 x2 和 x4,B 和 C 共同評分的電影是 x2、x4、x5。知道了這些信息后,我們計算皮爾森相關(guān)性或相關(guān)相似度:
A 和 C 之間的相關(guān)性比 B 和 C 之間的相關(guān)性大。因此,A 和 C 更相似,A 喜歡的電影會被推薦給 C,C 喜歡的也會被推薦給 A。
商品-商品相似度詳解
這里的平均商品評分(mean item rating)是給定商品的所有評分的平均(比較看看我們在用戶-用戶過濾中看到的表格)。這里要計算的不是用戶-用戶相似度,而是商品-商品相似度。要做到這一點,我們首先需要找到給這些商品評分過的用戶,然后再基于這些評分來計算這些商品之間的相似度。我們計算一下電影 (x1, x4) 和 (x1, x5) 之間的相似度。給電影 x1 和 x4 評過分的用戶是 A 和 B,而給電影 x1 和 x5 評過分的用戶也是 A 和 B。
x1 和 x4 的相似度大于 x1 和 x5 的相似度?;谶@些相似度值,如果有任何用戶搜索電影 x1,他們將被推薦 x4;反之亦然。
關(guān)于推薦系統(tǒng)的內(nèi)容就到此為止了。但是,請記住相似度度量和距離度量在整個機器學習領(lǐng)域都是非?;A(chǔ)的概念,理解它們對進一步的學習至關(guān)重要。