校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > 利用Python過濾相似文本的簡單方法示例

利用Python過濾相似文本的簡單方法示例

熱門標簽:甘肅高頻外呼系統(tǒng) 滴滴地圖標注公司 如何申請400電話代理 天津塘沽區(qū)地圖標注 江門智能電話機器人 智能電話機器人調研 400電話在線如何申請 地圖標注可以遠程操作嗎 杭州房產地圖標注

問題

假設你在存檔中有成千上萬的文檔,其中許多是彼此重復的,即使文檔的內容相同,標題不同。 現(xiàn)在想象一下,現(xiàn)在老板要求你通過刪除不必要的重復文檔來釋放一些空間。

問題是:如何過濾標題足夠相似的文本,以使內容可能相同? 接下來,如何實現(xiàn)此目標,以便在完成操作時不會刪除過多的文檔,而保留一組唯一的文檔? 讓我們用一些代碼使它更清楚:

titles = [
 "End of Year Review 2020",
 "2020 End of Year",
 "January Sales Projections",
 "Accounts 2017-2018",
 "Jan Sales Predictions"
]

# Desired output
filtered_titles = [
 "End of Year Review 2020",
 "January Sales Projections",
 "Accounts 2017-2018",
]

根據(jù)以上的問題,本文適合那些希望快速而實用地概述如何解決這樣的問題并廣泛了解他們同時在做什么的人!

接下來,我將介紹我為解決這個問題所采取的不同步驟。下面是控制流的概要:

預處理所有標題文本

生成所有標題成對

測試所有對的相似性

如果一對文本未能通過相似性測試,則刪除其中一個文本并創(chuàng)建一個新的文本列表

繼續(xù)測試這個新的相似的文本列表,直到?jīng)]有類似的文本留下

用Python表示,這可以很好地映射到遞歸函數(shù)上!

代碼

下面是Python中實現(xiàn)此功能的兩個函數(shù)。

import spacy
from itertools import combinations


# Set globals
nlp = spacy.load("en_core_web_md")

def pre_process(titles):
 """
 Pre-processes titles by removing stopwords and lemmatizing text.
 :param titles: list of strings, contains target titles,.
 :return: preprocessed_title_docs, list containing pre-processed titles.
 """

 # Preprocess all the titles
 title_docs = [nlp(x) for x in titles]
 preprocessed_title_docs = []
 lemmatized_tokens = []
 for title_doc in title_docs:
  for token in title_doc:
   if not token.is_stop:
    lemmatized_tokens.append(token.lemma_)
  preprocessed_title_docs.append(" ".join(lemmatized_tokens))
  del lemmatized_tokens[
   :
   ] # empty the lemmatized tokens list as the code moves onto a new title

 return preprocessed_title_docs

def similarity_filter(titles):
 """
 Recursively check if titles pass a similarity filter.
 :param titles: list of strings, contains titles.
 If the function finds titles that fail the similarity test, the above param will be the function output.
 :return: this method upon itself unless there are no similar titles; in that case the feed that was passed
 in is returned.
 """

 # Preprocess titles
 preprocessed_title_docs = pre_process(titles)

 # Remove similar titles
 all_summary_pairs = list(combinations(preprocessed_title_docs, 2))
 similar_titles = []
 for pair in all_summary_pairs:
  title1 = nlp(pair[0])
  title2 = nlp(pair[1])
  similarity = title1.similarity(title2)
  if similarity > 0.8:
   similar_titles.append(pair)

 titles_to_remove = []
 for a_title in similar_titles:
  # Get the index of the first title in the pair
  index_for_removal = preprocessed_title_docs.index(a_title[0])
  titles_to_remove.append(index_for_removal)

 # Get indices of similar titles and remove them
 similar_title_counts = set(titles_to_remove)
 similar_titles = [
  x[1] for x in enumerate(titles) if x[0] in similar_title_counts
 ]

 # Exit the recursion if there are no longer any similar titles
 if len(similar_title_counts) == 0:
  return titles

 # Continue the recursion if there are still titles to remove
 else:
  # Remove similar titles from the next input
  for title in similar_titles:
   idx = titles.index(title)
   titles.pop(idx)
   
  return similarity_filter(titles)

if __name__ == "__main__":
 your_title_list = ['title1', 'title2']
 similarty_filter(your_title_list)

第一個是預處理標題文本的簡單函數(shù);它刪除像' the ', ' a ', ' and '這樣的停止詞,并只返回標題中單詞的引理。

如果你在這個函數(shù)中輸入“End of Year Review 2020”,你會得到“end year review 2020”作為輸出;如果你輸入“January Sales Projections”,你會得到“january sale projection”。

它主要使用了python中非常容易使用的spacy庫.

第二個函數(shù)(第30行)為所有標題創(chuàng)建配對,然后確定它們是否通過了余弦相似度測試。如果它沒有找到任何相似的標題,那么它將輸出一個不相似標題的列表。但如果它確實找到了相似的標題,在刪除沒有通過相似度測試的配對后,它會將這些過濾后的標題再次發(fā)送給它自己,并檢查是否還有相似的標題。

這就是為什么它是遞歸的!簡單明了,這意味著函數(shù)將繼續(xù)檢查輸出,以真正確保在返回“最終”輸出之前沒有類似的標題。

什么是余弦相似度?

但簡而言之,這就是spacy在幕后做的事情……

首先,還記得那些預處理過的工作嗎?首先,spacy把我們輸入的單詞變成了一個數(shù)字矩陣。

一旦它完成了,你就可以把這些數(shù)字變成向量,也就是說你可以把它們畫在圖上。

一旦你這樣做了,計算兩條直線夾角的余弦就能讓你知道它們是否指向相同的方向。

所以,在上圖中,想象一下,A線代表“閃亮的橙色水果”,B線代表“閃亮的紅蘋果是一種水果”。

在這種情況下,行A和行B都對應于空格為這兩個句子創(chuàng)建的數(shù)字矩陣。這兩條線之間的角度——在上面的圖表中由希臘字母theta表示——是非常有用的!你可以計算余弦來判斷這兩條線是否指向同一個方向。

這聽起來似乎是顯而易見的,難以計算,但關鍵是,這種方法為我們提供了一種自動化整個過程的方法。

總結

回顧一下,我已經(jīng)解釋了遞歸python函數(shù)如何使用余弦相似性和spacy自然語言處理庫來接受相似文本的輸入,然后返回彼此不太相似的文本。

可能有很多這樣的用例……類似于我在本文開頭提到的歸檔用例,你可以使用這種方法在數(shù)據(jù)集中過濾具有惟一歌詞的歌曲,甚至過濾具有惟一內容類型的社交媒體帖子。

到此這篇關于利用Python過濾相似文本的簡單方法的文章就介紹到這了,更多相關Python過濾相似文本內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python使用jieba實現(xiàn)中文分詞去停用詞方法示例
  • Python實現(xiàn)敏感詞過濾的4種方法
  • Python過濾序列元素的方法
  • python numpy實現(xiàn)多次循環(huán)讀取文件 等間隔過濾數(shù)據(jù)示例
  • python正則過濾字母、中文、數(shù)字及特殊字符方法詳解
  • python基礎之停用詞過濾詳解

標簽:德宏 臨汾 東莞 長春 漢中 河池 廊坊 重慶

巨人網(wǎng)絡通訊聲明:本文標題《利用Python過濾相似文本的簡單方法示例》,本文關鍵詞  利用,Python,過濾,相似,文本,;如發(fā)現(xiàn)本文內容存在版權問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《利用Python過濾相似文本的簡單方法示例》相關的同類信息!
  • 本頁收集關于利用Python過濾相似文本的簡單方法示例的相關信息資訊供網(wǎng)民參考!
  • 推薦文章
    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    精品福利一二区| 国产成人在线网站| 91精品啪在线观看国产60岁| 午夜精品在线看| 久久综合色天天久久综合图片| 精品一区二区三区免费播放| 国产精品久久久久久久久免费樱桃| 色成人在线视频| 精品在线亚洲视频| 亚洲视频图片小说| 日韩欧美卡一卡二| 99久久国产综合精品色伊| 亚洲成av人片| 欧美韩日一区二区三区四区| 欧美日本在线一区| zzijzzij亚洲日本少妇熟睡| 日韩电影在线看| 中文字幕一区视频| 日韩欧美高清dvd碟片| 99re66热这里只有精品3直播| 午夜精品久久久| 中文字幕字幕中文在线中不卡视频| 欧美一级国产精品| 欧美色爱综合网| 成人18精品视频| 国产精品一区在线| 日本欧美一区二区| 一区二区三区不卡在线观看| 日本一区二区三区在线观看| 日韩精品一区二区三区在线播放| 91啪九色porn原创视频在线观看| 极品少妇一区二区| 午夜精品久久久久久久久久久| 亚洲少妇中出一区| 国产日产欧美精品一区二区三区| 欧美日韩国产精品成人| 成人app网站| 成人综合婷婷国产精品久久蜜臀 | 久久新电视剧免费观看| 在线亚洲人成电影网站色www| 国产一区二区三区四区五区入口 | 精品在线观看免费| 日韩高清一区二区| 奇米精品一区二区三区四区| 亚洲va韩国va欧美va精品| 亚洲精品国久久99热| 国产精品福利一区二区| 国产精品美女久久福利网站| 国产欧美一区二区三区在线看蜜臀| 精品理论电影在线| 欧美一卡二卡在线| 欧美一区二区三区不卡| 欧美一区二区在线视频| 欧美一区二区三区不卡| 欧美一区二区福利视频| 欧美一区二区三区婷婷月色| 欧美精品一二三区| 67194成人在线观看| 日韩亚洲欧美中文三级| 欧美一区二区三区喷汁尤物| 欧美一区二区三区四区高清| 欧美tk丨vk视频| 欧美精品一区二区三区高清aⅴ| 26uuu欧美日本| 国产精品免费久久| 亚洲综合视频在线观看| 亚洲成人av福利| 狠狠色狠狠色综合日日91app| 国产麻豆日韩欧美久久| 9i在线看片成人免费| 91福利社在线观看| 日韩一区二区中文字幕| 中文字幕av一区 二区| 中文字幕日韩欧美一区二区三区| 亚洲一区二区精品视频| 久久国产精品免费| 色综合亚洲欧洲| 日韩视频一区二区三区在线播放 | 亚洲欧美日韩久久精品| 婷婷国产v国产偷v亚洲高清| 国产一区二区三区精品视频| 色综合网站在线| 欧美成人aa大片| 日韩毛片视频在线看| 青草国产精品久久久久久| av在线不卡观看免费观看| 欧美一卡二卡三卡| 亚洲素人一区二区| 麻豆精品在线观看| av网站一区二区三区| 91精品国产综合久久福利软件| 国产无一区二区| 亚洲一区二区欧美| 成人av午夜电影| 欧美一区二区日韩| 一区二区三区在线观看欧美| 国产麻豆精品theporn| 8x8x8国产精品| 亚洲欧美精品午睡沙发| 国内成人精品2018免费看| 欧美伊人久久久久久久久影院| 国产亚洲精品福利| 捆绑调教一区二区三区| 欧美日韩五月天| 亚洲视频一二区| 成人午夜av影视| 26uuu精品一区二区三区四区在线| 亚洲国产精品尤物yw在线观看| av一区二区三区| 国产精品剧情在线亚洲| 国产成人亚洲综合a∨婷婷 | 久久综合99re88久久爱| 午夜激情一区二区| 91成人在线免费观看| 国产精品国产成人国产三级| 国产成人亚洲综合色影视| 精品国产乱码久久久久久浪潮| 日韩精品色哟哟| 欧美日韩中文字幕精品| 亚洲黄色录像片| 91丝袜呻吟高潮美腿白嫩在线观看| 制服丝袜亚洲播放| 国产精品乱码妇女bbbb| 丰满少妇在线播放bd日韩电影| 精品久久人人做人人爱| 国内国产精品久久| 国产欧美精品在线观看| 粉嫩蜜臀av国产精品网站| 久久精品一区二区三区av| 国产成人精品亚洲午夜麻豆| 亚洲国产精品v| 色综合久久中文综合久久97| 亚洲另类在线一区| 91免费看`日韩一区二区| 亚洲精品欧美在线| 欧美日韩一区视频| 青椒成人免费视频| 久久综合九色综合97婷婷女人| 精品一区二区三区在线观看国产| 欧美一级理论性理论a| 国产一区在线不卡| 成人欧美一区二区三区黑人麻豆| 99天天综合性| 亚洲国产精品一区二区久久| 日韩视频免费观看高清完整版| 麻豆精品一区二区av白丝在线| 精品国产免费久久| yourporn久久国产精品| 午夜久久久久久久久久一区二区| 欧美一级理论片| 粉嫩av一区二区三区粉嫩| 亚洲天堂av一区| 日韩一区二区中文字幕| 粉嫩高潮美女一区二区三区 | 欧美电影免费观看完整版| 成人免费高清在线观看| 亚洲国产日韩综合久久精品| 3d动漫精品啪啪一区二区竹菊| 国产美女精品一区二区三区| 亚洲免费观看高清在线观看| 欧美一卡二卡在线| 91麻豆蜜桃一区二区三区| 久草精品在线观看| 亚洲综合一二区| 欧美国产禁国产网站cc| 欧美猛男男办公室激情| 国产综合久久久久久鬼色| 亚洲影院久久精品| 国产婷婷色一区二区三区| 在线一区二区三区四区五区 | 亚洲精品国产成人久久av盗摄| 欧美一级片免费看| 99re热视频这里只精品| 久久超级碰视频| 亚洲综合区在线| 中日韩免费视频中文字幕| 欧美日韩国产系列| 一区二区三区在线播| 欧美一区二区三区精品| www.欧美日韩| 狠狠v欧美v日韩v亚洲ⅴ| 性做久久久久久久免费看| 久久久精品欧美丰满| 欧美日韩高清影院| 9色porny自拍视频一区二区| 激情综合五月天| 亚洲综合小说图片| 亚洲三级在线看| 中文字幕一区二区三区在线不卡| 日韩你懂的电影在线观看| 在线不卡欧美精品一区二区三区| 色婷婷综合久色| 99久久精品国产麻豆演员表| 国产激情91久久精品导航| 久久综合综合久久综合| 毛片av一区二区三区| 美腿丝袜亚洲一区| 日韩—二三区免费观看av| 天堂一区二区在线| 亚洲成人黄色影院|