一、什麽是中文分詞
衆所周知,英文是以詞爲單位的,詞和詞之間是靠空格隔開,而中文是以字爲單位,句子中所有的字連起來才能描述一個意思。例如,英文句子I am a student,用中文則爲:“我是一個學生”。計算機可以很簡單通過空格知道student是一個單詞,但是不能很容易明白“學”、“生”兩個字合起來才表示一個詞。把中文的漢字序列切分成有意義的詞,就是中文分詞,有些人也稱爲切詞。 對于搜索引擎來說,最重要的並不是找到所有結果,因爲在上百億的網頁中找到所有結果沒有太多的意義,沒有人能看得完,最重要的是把最相關的結果排在最前面,這也稱爲相關度排序。中文分詞的准確與否,常常直接影響到對搜索結果的相關度排序。
二、中文分詞技術
中文分詞技術屬于自然語言處理技術範疇,對于一句話,人可以通過自己的知識來明白哪些是詞,哪些不是詞,但如何讓計算機也能理解?其處理過程就是分詞算法。現有的分詞算法可分爲三大類:基于字符串匹配的分詞方法、基于理解的分詞方法和基于統計的分詞方法。 ‘、基于字符串匹配的分詞方法 這種方法又叫做機械分詞方法,它是按照一定的策略將待分析的漢字串與一個“充分大的”機器詞典中的詞條進行配,若在詞典中找到某個字符串,則匹配成功(識別出一個詞)。按照掃描方向的不同,串匹配分詞方法可以分爲正向匹配和逆向匹配;按照不同長度優先匹配的情況,可以分爲最大(最長)匹配和最小(最短)匹配;按照是否與詞性標注過程相結合,又可以分爲單純分詞方法和分詞與標注相結合的一體化方法。常用的幾種機械分詞方法如下: ‘)正向最大匹配法(由左到右的方向); ;)逆向最大匹配法(由右到左的方向); )最少切分(使每一句中切出的詞數最小)。 還可以將上述各種方法相互組合,例如,可以將正向最大匹配方法和逆向最大匹配方法結合起來構成雙向匹配法。由于漢語單字成詞的特點,正向最小匹配和逆向最小匹配一般很少使用。一般說來,逆向匹配的切分精度略高于正向匹配,遇到的歧義現象也較少。統計結果表明,單純使用正向最大匹配的錯誤率爲’/’,單純使用逆向最大匹配的錯誤率爲’/;。但這種精度還遠遠不能滿足實際的需要。實際使用的分詞系統,都是把機械分詞作爲一種初分手段,還需通過利用各種其它的語言信息來進一步提高切分的准確率。 一種方法是改進掃描方式,稱爲特征掃描或標志切分,優先在待分析字符串中識別和切分出一些帶有明顯特征的詞,以這些詞作爲斷點,可將原字符串分爲較小的串再來進機械分詞,從而減少匹配的錯誤率。另一種方法是將分詞和詞類標注結合起來,利用豐富的詞類信息對分詞決策提供幫助,並且在標注過程中又反過來對分詞結果進行檢驗、調整,從而極大地提高切分的准確率。 對于機械分詞方法,可以建立一個一般的模型,在這方面有專業的學術論文,這裏不做詳細論述。 ;、基于理解的分詞方法 這種分詞方法是通過讓計算機模擬人對句子的理解,達到識別詞的效果。其基本思想就是在分詞的同時進行句法、語義分析,利用句法信息和語義信息來處理歧義現象。它通常包括三個部分:分詞子系統、句法語義子系統、總控部分。在總控部分的協調下,分詞子系統可以獲得有關詞、句子等的句法和語義信息來對分詞歧義進行判斷,即它模擬了人對句子的理解過程。這種分詞方法需要使用大量的語言知識和信息。由于漢語語言知識的籠統、複雜性,難以將各種語言信息組織成機器可直接讀取的形式,因此目前基于理解的分詞系統還處在試驗階段。 、基于統計的分詞方法 從形式上看,詞是穩定的字的組合,因此在上下文中,相鄰的字同時出現的次數越多,就越有可能構成一個詞。因此字與字相鄰共現的頻率或概率能夠較好的反映成詞的可信度。可以對語料中相鄰共現的各個字的組合的頻度進行統計,計算它們的互現信息。定義兩個字的互現信息,計算兩個漢字X、Y的相鄰共現概率。互現信息體現了漢字之間結合關系的緊密程度。當緊密程度高于某一個阈值時,便可認爲此字組可能構成了一個詞。這種方法只需對語料中的字組頻度進行統計,不需要切分詞典,因而又叫做無詞典分詞法或統計取詞方法。但這種方法也有一定的局限性,會經常抽出一些共現頻度高、但並不是詞的常用字組,例如“這一”、“之一”、“有的”、“我的”、“許多的”等,並且對常用詞的識別精度差,時空開銷大。實際應用的統計分詞系統都要使用一部基本的分詞詞典(常用詞詞典)進行串匹配分詞,同時使用統計方法識別一些新的詞,即將串頻統計和串匹配結合起來,既發揮匹配分詞切分速度快、效率高的特點,又利用了無詞典分詞結合上下文識別生詞、自動消除歧義的優點。 到底哪種分詞算法的准確度更高,目前並無定論。對于任何一個成熟的分詞系統來說,不可能單獨依靠某一種算法來實現,都需要綜合不同的算法。筆者了解,海量科技的分詞算法就采用“複方分詞法”,所謂複方,相當于用中藥中的複方概念,即用不同的藥才綜合起來去醫治疾病,同樣,對于中文詞的識別,需要多種算法來處理不同的問題。
三、分詞中的難題
有了成熟的分詞算法,是否就能容易的解決中文分詞的問題呢?事實遠非如此。中文是一種十分複雜的語言,讓計算機理解中文語言更是困難。在中文分詞過程中,有兩大難題一直沒有完全突破。 ‘、歧義識別 歧義是指同樣的一句話,可能有兩種或者更多的切分方法。例如:表面的,因爲“表面”和“面的”都是詞,那麽這個短語就可以分成“表面 的”和“表 面的”。這種稱爲交叉歧義。像這種交叉歧義十分常見,前面舉的“和服”的例子,其實就是因爲交叉歧義引起的錯誤。“化妝和服裝”可以分成“化妝 和 服裝”或者“化妝 和服 裝”。由于沒有人的知識去理解,計算機很難知道到底哪個方案正確。 交叉歧義相對組合歧義來說是還算比較容易處理,組合歧義就必需根據整個句子來判斷了。例如,在句子“這個門把手壞了”中,“把手”是個詞,但在句子“請把手拿開”中,“把手”就不是一個詞;在句子“將軍任命了一名中將”中,“中將”是個詞,但在句子“産量三年中將增長兩倍”中,“中將”就不再是詞。這些詞計算機又如何去識別? 如果交叉歧義和組合歧義計算機都能解決的話,在歧義中還有一個難題,是真歧義。真歧義意思是給出一句話,由人去判斷也不知道哪個應該是詞,哪個應該不是詞。例如:“乒乓球拍賣完了”,可以切分成“乒乓 球拍 賣 完 了”、也可切分成“乒乓球 拍賣 完 了”,如果沒有上下文其他的句子,恐怕誰也不知道“拍賣”在這裏算不算一個詞。 ;、新詞識別 新詞,專業術語稱爲未登錄詞。也就是那些在字典中都沒有收錄過,但又確實能稱爲詞的那些詞。最典型的是人名,人可以很容易理解句子“王軍虎去廣州了”中,“王軍虎”是個詞,因爲是一個人的名字,但要是讓計算機去識別就困難了。如果把“王軍虎”做爲一個詞收錄到字典中去,全世界有那麽多名字,而且每時每刻都有新增的人名,收錄這些人名本身就是一項巨大的工程。即使這項工作可以完成,還是會存在問題,例如:在句子“王軍虎頭虎腦的”中,“王軍虎”還能不能算詞? 新詞中除了人名以外,還有機構名、地名、産品名、商標名、簡稱、省略語等都是很難處理的問題,而且這些又正好是人們經常使用的詞,因此對于搜索引擎來說,分詞系統中的新詞識別十分重要。目前新詞識別准確率已經成爲評價一個分詞系統好壞的重要標志之一。
四、中文分詞的應用
目前在自然語言處理技術中,中文處理技術比西文處理技術要落後很大一段距離,許多西文的處理方法中文不能直接采用,就是因爲中文必需有分詞這道工序。中文分詞是其他中文信息處理的基礎,搜索引擎只是中文分詞的一個應用。其他的比如機器翻譯(MT)、語音合成、自動分類、自動摘要、自動校對等等,都需要用到分詞。因爲中文需要分詞,可能會影響一些研究,但同時也爲一些企業帶來機會,因爲國外的計算機處理技術要想進入中國市場,首先也是要解決中文分詞問題。在中文研究方面,相比外國人來說,中國人有十分明顯的優勢。 分詞准確性對搜索引擎來說十分重要,但如果分詞速度太慢,即使准確性再高,對于搜索引擎來說也是不可用的,因爲搜索引擎需要處理數以億計的網頁,如果分詞耗用的時間過長,會嚴重影響搜索引擎內容更新的速度。因此對于搜索引擎來說,分詞的准確性和速度,二者都需要達到很高的要求。目前研究中文分詞的大多是科研院校,清華、北大、中科院、北京語言學院、東北大學、IBM研究院、微軟中國研究院等都有自己的研究隊伍,而真正專業研究中文分詞的商業公司除了海量科技以外,幾乎沒有了。科研院校研究的技術,大部分不能很快産品化,而一個專業公司的力量畢竟有限,看來中文分詞技術要想更好的服務于更多的産品,還有很長一段路。
五、百度的分詞
百度的蜘蛛爬到的文檔索引入庫的時候是只進行了簡單的分詞處理,也就是只是簡單的把中文單個字單個字的分開,要證明這點很簡單,你只需要搜索單個詞就可以了,你也可以找一些莫名其妙的兩個字或者三個字組合在一起搜索百度看,你就會明白他入庫的時候只進行了簡單的把單個中文分開的處理。他把複雜的分詞邏輯放到了處理用戶輸入查詢關鍵字的時候。仔細一想,其實這樣做能夠最大限度的消除歧義。 當用戶輸入兩個字和三個字的詞進行搜索的時候百度也沒有進行任何處理的,也只是把他們簡單的按照單個字分開,然後查詢的時候條件是這兩個字或者這三個字必須連接在一起,中間沒有任何其他的字。要證明這點也很簡單,大家只要輸入任意兩個字的詞或者三個字的詞進行搜索就可以了,甚至你可以搜索毫無意義的詞進行查詢,看是不是出來的搜索結果要麽是沒有找到任何內容,要麽是包括你輸入了的任何字,而且這些字都是連接在一起的,雖然這些字他們之間的組合是毫無意義,這也同時證明了百度在索引入庫的時候是只進行了簡單的按照單個中文分開。 當用戶的輸入詞大于個字的時候,百度就開始會對查詢詞進行分詞,測試下來,百度不單單是使用簡單的分詞技術,很好可能將統計數據等融入分詞中。