亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 編程 > .NET > 正文

.NET下文本相似度算法余弦定理和SimHash淺析及應用實例分析

2024-07-10 13:28:44
字體:
來源:轉載
供稿:網友
這篇文章主要介紹了.NET下文本相似度算法余弦定理和SimHash淺析及應用,實例形式詳細講述了相似度算法余弦定理和SimHash的原理與用法,需要的朋友可以參考下
 
 

本文實例講述了.NET下文本相似度算法余弦定理和SimHash淺析及應用。分享給大家供大家參考。具體分析如下:

余弦相似性

原理:首先我們先把兩段文本分詞,列出來所有單詞,其次我們計算每個詞語的詞頻,最后把詞語轉換為向量,這樣我們就只需要計算兩個向量的相似程度.
 
我們簡單表述如下
 
文本1:我/愛/北京/天安門/ 經過分詞求詞頻得出向量(偽向量)  [1,1,1,1]
 
文本2:我們/都愛/北京/天安門/ 經過分詞求詞頻得出向量(偽向量)  [1,0,1,2]
 
我們可以把它們想象成空間中的兩條線段,都是從原點([0, 0, ...])出發,指向不同的方向。兩條線段之間形成一個夾角,如果夾角為0度,意味著方向相同、線段重合;如果夾角為90度,意味著形成直角,方向完全不相似;如果夾角為180度,意味著方向正好相反。因此,我們可以通過夾角的大小,來判斷向量的相似程度。夾角越小,就代表越相似。
 
C#核心算法:

復制代碼代碼如下:
    public class TFIDFMeasure
    {
        private string[] _docs;
        private string[][] _ngramDoc;
        private int _numDocs=0;
        private int _numTerms=0;
        private ArrayList _terms;
        private int[][] _termFreq;
        private float[][] _termWeight;
        private int[] _maxTermFreq;
        private int[] _docFreq;
 
        public class TermVector
        {        
            public static float ComputeCosineSimilarity(float[] vector1, float[] vector2)
            {
                if (vector1.Length != vector2.Length)                
                    throw new Exception("DIFER LENGTH");
                
 
                float denom=(VectorLength(vector1) * VectorLength(vector2));
                if (denom == 0F)                
                    return 0F;                
                else                
                    return (InnerProduct(vector1, vector2) / denom);
                
            }
 
            public static float InnerProduct(float[] vector1, float[] vector2)
            {
            
                if (vector1.Length != vector2.Length)
                    throw new Exception("DIFFER LENGTH ARE NOT ALLOWED");
                
            
                float result=0F;
                for (int i=0; i < vector1.Length; i++)                
                    result += vector1[i] * vector2[i];
                
                return result;
            }
        
            public static float VectorLength(float[] vector)
            {            
                float sum=0.0F;
                for (int i=0; i < vector.Length; i++)                
                    sum=sum + (vector[i] * vector[i]);
                        
                return (float)Math.Sqrt(sum);
            }
        }
 
        private IDictionary _wordsIndex=new Hashtable() ;
 
        public TFIDFMeasure(string[] documents)
        {
            _docs=documents;
            _numDocs=documents.Length ;
            MyInit();
        }
 
        private void GeneratNgramText()
        {
            
        }
 
        private ArrayList GenerateTerms(string[] docs)
        {
            ArrayList uniques=new ArrayList() ;
            _ngramDoc=new string[_numDocs][] ;
            for (int i=0; i < docs.Length ; i++)
            {
                Tokeniser tokenizer=new Tokeniser() ;
                string[] words=tokenizer.Partition(docs[i]);            
 
                for (int j=0; j < words.Length ; j++)
                    if (!uniques.Contains(words[j]) )                
                        uniques.Add(words[j]) ;
            }
            return uniques;
        }

 

        private static object AddElement(IDictionary collection, object key, object newValue)
        {
            object element=collection[key];
            collection[key]=newValue;
            return element;
        }
 
        private int GetTermIndex(string term)
        {
            object index=_wordsIndex[term];
            if (index == null) return -1;
            return (int) index;
        }
 
        private void MyInit()
        {
            _terms=GenerateTerms (_docs );
            _numTerms=_terms.Count ;
 
            _maxTermFreq=new int[_numDocs] ;
            _docFreq=new int[_numTerms] ;
            _termFreq =new int[_numTerms][] ;
            _termWeight=new float[_numTerms][] ;
 
            for(int i=0; i < _terms.Count ; i++)            
            {
                _termWeight[i]=new float[_numDocs] ;
                _termFreq[i]=new int[_numDocs] ;
 
                AddElement(_wordsIndex, _terms[i], i);            
            }
            
            GenerateTermFrequency ();
            GenerateTermWeight();            
        }
        
        private float Log(float num)
        {
            return (float) Math.Log(num) ;//log2
        }
 
        private void GenerateTermFrequency()
        {
            for(int i=0; i < _numDocs  ; i++)
            {                                
                string curDoc=_docs[i];
                IDictionary freq=GetWordFrequency(curDoc);
                IDictionaryEnumerator enums=freq.GetEnumerator() ;
                _maxTermFreq[i]=int.MinValue ;
                while (enums.MoveNext())
                {
                    string word=(string)enums.Key;
                    int wordFreq=(int)enums.Value ;
                    int termIndex=GetTermIndex(word);
 
                    _termFreq [termIndex][i]=wordFreq;
                    _docFreq[termIndex] ++;
 
                    if (wordFreq > _maxTermFreq[i]) _maxTermFreq[i]=wordFreq;                    
                }
            }
        }

        private void GenerateTermWeight()
        {            
            for(int i=0; i < _numTerms   ; i++)
            {
                for(int j=0; j < _numDocs ; j++)                
                    _termWeight[i][j]=ComputeTermWeight (i, j);
            }
        }
 
        private float GetTermFrequency(int term, int doc)
        {            
            int freq=_termFreq [term][doc];
            int maxfreq=_maxTermFreq[doc];            
            
            return ( (float) freq/(float)maxfreq );
        }
 
        private float GetInverseDocumentFrequency(int term)
        {
            int df=_docFreq[term];
            return Log((float) (_numDocs) / (float) df );
        }
 
        private float ComputeTermWeight(int term, int doc)
        {
            float tf=GetTermFrequency (term, doc);
            float idf=GetInverseDocumentFrequency(term);
            return tf * idf;
        }
        
        private  float[] GetTermVector(int doc)
        {
            float[] w=new float[_numTerms] ;
            for (int i=0; i < _numTerms; i++) 
                w[i]=_termWeight[i][doc];
            return w;
        }
 
        public float GetSimilarity(int doc_i, int doc_j)
        {
            float[] vector1=GetTermVector (doc_i);
            float[] vector2=GetTermVector (doc_j);
            return TermVector.ComputeCosineSimilarity(vector1, vector2);
        }
        
        private IDictionary GetWordFrequency(string input)
        {
            string convertedInput=input.ToLower() ;
            Tokeniser tokenizer=new Tokeniser() ;
            String[] words=tokenizer.Partition(convertedInput);
            Array.Sort(words);
            
            String[] distinctWords=GetDistinctWords(words);
                        
            IDictionary result=new Hashtable();
            for (int i=0; i < distinctWords.Length; i++)
            {
                object tmp;
                tmp=CountWords(distinctWords[i], words);
                result[distinctWords[i]]=tmp;
            }
            return result;
        }                
                
        private string[] GetDistinctWords(String[] input)
        {                
            if (input == null)            
                return new string[0];            
            else
            {
                ArrayList list=new ArrayList() ;
                
                for (int i=0; i < input.Length; i++)
                    if (!list.Contains(input[i])) // N-GRAM SIMILARITY? 
                        list.Add(input[i]);
                return Tokeniser.ArrayListToArray(list) ;
            }
        }

        private int CountWords(string word, string[] words)
        {
            int itemIdx=Array.BinarySearch(words, word);
            
            if (itemIdx > 0)            
                while (itemIdx > 0 && words[itemIdx].Equals(word))
                    itemIdx--;                
            int count=0;
            while (itemIdx < words.Length && itemIdx >= 0)
            {
                if (words[itemIdx].Equals(word)) count++;
                itemIdx++;
                if (itemIdx < words.Length)                
                    if (!words[itemIdx].Equals(word)) break;
            }
            return count;
        }                
}


 
缺點:
 
由于有可能一個文章的特征向量詞特別多導致整個向量維度很高,使得計算的代價太大不適合大數據量的計算。
 
SimHash原理:
 
算法的主要思想是降維,將高維的特征向量映射成一個f-bit的指紋(fingerprint),通過比較兩篇文章的f-bit指紋的Hamming Distance來確定文章是否重復或者高度近似。由于每篇文章我們都可以事先計算好Hamming Distance來保存,到時候直接通過Hamming Distance來計算,所以速度非??爝m合大數據計算。
 
Google就是基于此算法實現網頁文件查重的。我們假設有以下三段文本:
 
1,the cat sat on the mat
 
2,the cat sat on a mat
 
3,we all scream for ice cream
 
如何實現這種hash算法呢?以上述三個文本為例,整個過程可以分為以下六步: 
1、選擇simhash的位數,請綜合考慮存儲成本以及數據集的大小,比如說32位 
2、將simhash的各位初始化為0 
3、提取原始文本中的特征,一般采用各種分詞的方式。比如對于"the cat sat on the mat",采用兩兩分詞的方式得到如下結果:{"th", "he", "e ", " c", "ca", "at", "t ", " s", "sa", " o", "on", "n ", " t", " m", "ma"} 
4、使用傳統的32位hash函數計算各個word的hashcode,比如:"th".hash = -502157718 
,"he".hash = -369049682,…… 
5、對各word的hashcode的每一位,如果該位為1,則simhash相應位的值加1;否則減1 
6、對最后得到的32位的simhash,如果該位大于1,則設為1;否則設為0

 

希望本文所述對大家的.net程序設計有所幫助。


發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
在线免费观看羞羞视频一区二区| 91影院在线免费观看视频| 日韩精品视频在线观看网址| 亚洲日本成人网| 国产精品高潮呻吟视频| 国产日韩欧美在线观看| 啪一啪鲁一鲁2019在线视频| 欧美精品电影在线| 久久久久久亚洲| 日韩美女免费线视频| 久久久精品一区| 国外成人在线视频| 久久久亚洲国产天美传媒修理工| 亚洲丝袜av一区| 国产精品美女在线观看| 亚洲精品综合精品自拍| 国产精品十八以下禁看| 亚洲丝袜av一区| 98精品国产高清在线xxxx天堂| 日韩成人在线视频| 久久夜色精品国产欧美乱| 一色桃子一区二区| 欧美午夜精品久久久久久久| 亚洲精品资源美女情侣酒店| 国产精品狼人色视频一区| 亚洲tv在线观看| 国产精品久久久久久搜索| 97视频在线观看视频免费视频| 精品无人区太爽高潮在线播放| 国内精品模特av私拍在线观看| 久久久91精品国产| 欧美激情亚洲视频| 亚洲国产小视频| 国产精品视频xxx| 日韩精品中文字幕在线观看| 久久天天躁狠狠躁夜夜躁2014| 国产精品一区久久| 国产在线观看精品一区二区三区| 性色av一区二区三区红粉影视| 欧美亚洲午夜视频在线观看| 91中文精品字幕在线视频| 亚洲国产精品va在线看黑人动漫| 日本久久久久久久| 欧美日韩免费网站| 亚洲一区美女视频在线观看免费| 庆余年2免费日韩剧观看大牛| 国产精品9999| 中文字幕日韩免费视频| 久久久久久久久久av| 91最新国产视频| 亚洲在线免费观看| 欧美自拍大量在线观看| 国外成人在线视频| 国产成人免费av电影| 日韩精品视频在线| 午夜剧场成人观在线视频免费观看| 国产精品视频免费在线| 欧美又大粗又爽又黄大片视频| 欧美日本在线视频中文字字幕| 国产综合视频在线观看| 国产欧美在线播放| 亚洲国产精品久久91精品| 成人h视频在线观看播放| 欧美黄色小视频| 色综合老司机第九色激情| 98视频在线噜噜噜国产| 欧美另类老女人| 日韩最新免费不卡| 中文在线资源观看视频网站免费不卡| www.日韩免费| 午夜美女久久久久爽久久| 成人黄色免费看| 久久天天躁夜夜躁狠狠躁2022| 热re91久久精品国99热蜜臀| 欧美午夜丰满在线18影院| 国产亚洲美女精品久久久| 国语对白做受69| 日韩在线观看免费全| 亚洲网在线观看| 日韩美女主播视频| 欧美成人四级hd版| 综合av色偷偷网| 日韩av日韩在线观看| 欧美激情精品久久久久久蜜臀| 久久久91精品国产| 国产国语videosex另类| 亚洲成人网av| 欧美国产日韩xxxxx| 欧美日韩国产成人高清视频| 国产精品一二三在线| 在线观看国产成人av片| 欧美日韩福利在线观看| 亚洲国产91精品在线观看| 萌白酱国产一区二区| 日韩在线视频网| 国产噜噜噜噜久久久久久久久| 亚洲欧洲在线视频| 欧美激情在线播放| 在线精品国产欧美| 欧美美女15p| 最近2019中文字幕在线高清| 国产美女久久精品香蕉69| 亲子乱一区二区三区电影| 成人免费看片视频| 668精品在线视频| 亚洲女人天堂色在线7777| 97国产在线观看| 日韩美女在线观看一区| 亚洲一区二区久久久久久| 国内精品久久久久久久| 国产成人精品一区二区三区| 日韩69视频在线观看| 色偷偷偷综合中文字幕;dd| 国产精品第七影院| 精品视频中文字幕| 精品亚洲国产成av人片传媒| 97精品久久久| 国产精品h片在线播放| 国产成人福利网站| 性视频1819p久久| 欧美日韩亚洲高清| 97香蕉久久夜色精品国产| 国产69精品久久久久久| 国内精品久久久久久中文字幕| 一本色道久久综合亚洲精品小说| 亚洲精品永久免费| 亚洲第一福利在线观看| 欧美激情网站在线观看| 国内精品一区二区三区四区| 大荫蒂欧美视频另类xxxx| 欧美成人精品一区二区| 日本精品久久中文字幕佐佐木| 欧美另类极品videosbest最新版本| 国产91亚洲精品| 欧美性猛交xxxx乱大交| 精品福利樱桃av导航| 欧美专区国产专区| 欧美大片免费观看在线观看网站推荐| 青青久久av北条麻妃黑人| 国产亚洲精品va在线观看| 亚洲老司机av| 亚洲一级免费视频| 日韩中文字幕视频在线| 成人免费xxxxx在线观看| 欧美国产日韩中文字幕在线| 色偷偷av一区二区三区| 欧美成人sm免费视频| 九九九热精品免费视频观看网站| 在线观看国产精品淫| 亚洲一区二区久久| 亚洲最大福利网| 日韩av不卡在线| 欧美与黑人午夜性猛交久久久| 精品久久久av| 美日韩精品免费观看视频| 欧美激情极品视频| 日韩亚洲欧美中文在线| 亚洲影视中文字幕| 在线看日韩欧美| 日韩欧美综合在线视频| 91精品综合视频| 日本一区二区三区在线播放| 亚洲有声小说3d| 亚洲第一二三四五区|