python中如何用正則表示式匹配漢字
阿新 • • 發佈:2019-01-07
由於 需求原因,需要匹配 提取中文,大量google下,並沒有我需要的。花了一個小時大概測試,此utf8中文通過,特留文。
參考: http://hi.baidu.com/nivrrex/blog/item/e6ccaf511d0926888d543071.html
http://topic.csdn.net/u/20070404/15/b011aa83-f9b7-43b3-bbff-bfe4f653df03.html
首先,確保所有編碼都為 unicode
比如 str.decode('utf8') #從utf8文字中
u"啊l" #在控制檯輸出中
(羅嗦下)本想使用參考一定編碼 Hex 但鬱悶的是 這每個字好像佔2個位置,使用正則匹配無果。
其次,確定中文範圍 : [\u4e00-\u9fa5]
(這裡注意下 python 的re寫的時候) 要 u"[\u4e00-\u9fa5]" #確定正則表示式也是 unicode 的
demo :
>>>print re.match(ur"[\u4e00-\u9fa5]+","啊")
None
>>>print re.match(ur"[\u4e00-\u9fa5]+",u"啊")
<_sre.SRE_Match object at 0x2a98981308>>>>print re.match(ur"[\u4e00-\u9fa5]+ ",u"t")
None
>>>print tt
現在才明白
>>> tt
'\xe7\x8e\xb0\xe5\x9c\xa8\xe6\x89\x8d\xe6\x98\x8e\xe7\x99\xbd'>>>print re.match(r"[\u4e00-\u9fa5]",tt.decode('utf8'))
None
>>>print re.match(ur"[\u4e00-\u9fa5]",tt.decode('utf8'))
<_sre.SRE_Match object at 0x2a955d9c60>>>>print re.match(ur".*["u4e00-"u9fa5]+",u"hi,匹配到了")
<_sre.SRE_Match object at 0x2a955d9c60>>>>print re.match(ur".*["u4e00-"u9fa5]+",u"hi,no no")
None
其他 擴充 範圍 (轉)
這裡是幾個主要非英文語系字元範圍(google上找到的):
2E80~33FFh:中日韓符號區。收容康熙字典部首、中日韓輔助部首、注音符號、日本假名、韓文音符,中日韓的符號、標點、帶圈或帶括符文數字、月份,以及日本的假名組合、單位、年號、月份、日期、時間等。
3400~4DFFh:中日韓認同表意文字擴充A區,總計收容6,582箇中日韓漢字。
4E00~9FFFh:中日韓認同表意文字區,總計收容20,902箇中日韓漢字。
A000~A4FFh:彝族文字區,收容中國南方彝族文字和字根。
AC00~D7FFh:韓文拼音組合字區,收容以韓文音符拼成的文字。
F900~FAFFh:中日韓兼容表意文字區,總計收容302箇中日韓漢字。
FB00~FFFDh:文字表現形式區,收容組合拉丁文字、希伯來文、阿拉伯文、中日韓直式標點、小符號、半形符號、全形符號等。
比如需要匹配所有中日韓非符號字元,那麼正則表示式應該是^[\u3400-\u9FFF]+$
理論上沒錯, 可是我到msn.co.ko隨便複製了個韓文下來, 發現根本不對, 詭異
再到msn.co.jp複製了個’お’, 也不得行..
然後把範圍擴大到^[\u2E80-\u9FFF]+$, 這樣倒是都通過了, 這個應該就是匹配中日韓文字的正則表示式了, 包括我們臺灣省還在盲目使用的繁體中文
而關於中文的正則表示式, 應該是^[\u4E00-\u9FFF]+$, 和論壇裡常被人提起的^[\u4E00-\u9FA5]+$很接近
需要注意的是論壇裡說的^[\u4E00-\u9FA5]+$這是專門用於匹配簡體中文的正則表示式, 實際上繁體字也在裡面, 我用測試器測試了下’中華人民共和國’, 也通過了, 當然, ^[\u4E00-\u9FFF]+$也是一樣的結果。
參考: http://hi.baidu.com/nivrrex/blog/item/e6ccaf511d0926888d543071.html
http://topic.csdn.net/u/20070404/15/b011aa83-f9b7-43b3-bbff-bfe4f653df03.html
首先,確保所有編碼都為 unicode
比如 str.decode('utf8') #從utf8文字中
u"啊l" #在控制檯輸出中
(羅嗦下)本想使用參考一定編碼 Hex 但鬱悶的是 這每個字好像佔2個位置,使用正則匹配無果。
其次,確定中文範圍 : [\u4e00-\u9fa5]
(這裡注意下 python 的re寫的時候) 要 u"[\u4e00-\u9fa5]" #確定正則表示式也是 unicode 的
demo :
>>>print re.match(ur"[\u4e00-\u9fa5]+","啊")
None
>>>print re.match(ur"[\u4e00-\u9fa5]+",u"啊")
<_sre.SRE_Match object at 0x2a98981308>>>>print re.match(ur"[\u4e00-\u9fa5]+
None
>>>print tt
現在才明白
>>> tt
'\xe7\x8e\xb0\xe5\x9c\xa8\xe6\x89\x8d\xe6\x98\x8e\xe7\x99\xbd'>>>print re.match(r"[\u4e00-\u9fa5]",tt.decode('utf8'))
None
>>>print re.match(ur"[\u4e00-\u9fa5]",tt.decode('utf8'))
<_sre.SRE_Match object at 0x2a955d9c60>>>>print
<_sre.SRE_Match object at 0x2a955d9c60>>>>print re.match(ur".*["u4e00-"u9fa5]+",u"hi,no no")
None
其他 擴充 範圍 (轉)
這裡是幾個主要非英文語系字元範圍(google上找到的):
2E80~33FFh:中日韓符號區。收容康熙字典部首、中日韓輔助部首、注音符號、日本假名、韓文音符,中日韓的符號、標點、帶圈或帶括符文數字、月份,以及日本的假名組合、單位、年號、月份、日期、時間等。
3400~4DFFh:中日韓認同表意文字擴充A區,總計收容6,582箇中日韓漢字。
4E00~9FFFh:中日韓認同表意文字區,總計收容20,902箇中日韓漢字。
A000~A4FFh:彝族文字區,收容中國南方彝族文字和字根。
AC00~D7FFh:韓文拼音組合字區,收容以韓文音符拼成的文字。
F900~FAFFh:中日韓兼容表意文字區,總計收容302箇中日韓漢字。
FB00~FFFDh:文字表現形式區,收容組合拉丁文字、希伯來文、阿拉伯文、中日韓直式標點、小符號、半形符號、全形符號等。
比如需要匹配所有中日韓非符號字元,那麼正則表示式應該是^[\u3400-\u9FFF]+$
理論上沒錯, 可是我到msn.co.ko隨便複製了個韓文下來, 發現根本不對, 詭異
再到msn.co.jp複製了個’お’, 也不得行..
然後把範圍擴大到^[\u2E80-\u9FFF]+$, 這樣倒是都通過了, 這個應該就是匹配中日韓文字的正則表示式了, 包括我們臺灣省還在盲目使用的繁體中文
而關於中文的正則表示式, 應該是^[\u4E00-\u9FFF]+$, 和論壇裡常被人提起的^[\u4E00-\u9FA5]+$很接近
需要注意的是論壇裡說的^[\u4E00-\u9FA5]+$這是專門用於匹配簡體中文的正則表示式, 實際上繁體字也在裡面, 我用測試器測試了下’中華人民共和國’, 也通過了, 當然, ^[\u4E00-\u9FFF]+$也是一樣的結果。