中文文本中可能出現的標點符號來源比較復雜,通過匹配等手段對他們處理的時候需要格外小心,防止遺漏。以下為在下處理中文標點的時候采用的兩種方法:
中文標點集合
比較常見標點有這些:
!?。"#$%&'()*+,-/:;<=>@[\]^_`{|}~⦅⦆「」、、〃》「」『』【】〔〕〖〗〘〙〚〛〜〝〞〟〰〾〿–—‘'‛“”„‟…‧﹏.
調用zhon包的zhon.hanzi.punctuation函數即可得到這些中文標點。
如果想用英文的標點,則可調用string包的string.punctuation函數可得到:
!"#$%&/'()*+,-./:;<=>?@[//]^_`{|}~因此,比如需要將所有標點符號去除,可以進行以下操作:
>>> import re>>> from zhon.hanzo import punctuation>>> line = "測試。。去除標點。。">>> print re.sub("[{}]+".format(punctuation), "", line.decode("utf-8")) # 需要將str轉換為unicode當然,如果想去除重復的符號而只保留一個,那么可以用/1指明:比如
>>> re.sub(ur"([{}])+".format(punctuation), "/1", line.decode("utf-8"))你也可以手工指定這些標點符號
punctuation = """???。"?!纾ィΓВǎ?;<=>@[\]^_`{|}~⦅⦆「」、、〃》「」『』【】〔〕〖〗〘〙〚〛〜〝〞〟〰〾〿–—‘'‛“”„‟…‧﹏"""re_punctuation = "[{}]+".format(punctuation)line = re.sub(re_punctuation, "", line)可以通過直接指定unicode碼范圍的辦法來strip,比如:
去除所有半角全角符號,只留字母、數字、中文
def remove_punctuation(line): rule = re.compile(ur"[^a-zA-Z0-9/u4e00-/u9fa5]") line = rule.sub('',line) return line漢字的范圍為”/u4e00-/u9fa5“,這個是用Unicode表示的,所以前面必須要加”u“;字符”r“的意思是表示忽略后面的轉義字符,這樣簡化了后面正則表達式里每遇到一個轉義字符還得挨個轉義的麻煩
最后可以組合成為一個函數
def remove_punctuation(line, strip_all=True): if strip_all: rule = re.compile(ur"[^a-zA-Z0-9/u4e00-/u9fa5]") line = rule.sub('',line) else: punctuation = """???。"#$%&'()*+-/:;<=>@[\]^_`{|}~⦅⦆「」、、〃》「」『』【】〔〕〖〗〘〙〚〛〜〝〞〟〰〾〿–—‘'‛“”„‟…‧﹏""" re_punctuation = "[{}]+".format(punctuation) line = re.sub(re_punctuation, "", line) return line.strip()
新聞熱點
疑難解答