国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

python腳本爬取字體文件的實現方法

2020-02-16 01:27:53
字體:
來源:轉載
供稿:網友

前言

大家應該都有所體會,為了提高驗證碼的識別準確率,我們當然要首先得到足夠多的測試數據。驗證碼下載下來容易,但是需要人腦手工識別著實讓人受不了,于是我就想了個折衷的辦法——自己造驗證碼。

為了保證多樣性,首先當然需要不同的字模了,直接用類似ttf格式的字體文件即可,網上有很多ttf格式的字體包供我們下載。當然,我不會傻到手動下載解壓縮,果斷要寫個爬蟲了。

實現方法

網站一:fontsquirrel.com

這個網站的字體可以免費下載,但是有很多下載點都是外鏈連接到其他網站的,這部分得忽略掉。

#coding:utf-8import urllib2,cookielib,sys,re,os,zipfileimport numpy as np#網站登陸cj=cookielib.CookieJar()opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))opener.addheaders=[('User-agent','Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 Safari/537.36))')]urllib2.install_opener(opener)#搜索可下載連接def search(path): request=urllib2.Request(path) response=urllib2.urlopen(request) html=response.read() html=html.replace('/n',' ')#將所有的回車去掉,因為正則表達式是單行匹配。。。。。。 urls=re.findall(r'<a href="(.*?)" rel="external nofollow" >(.*?)</a>',html) for i in urls:  url,inner=i  if not re.findall(r'Download ',inner)==[] and re.findall(r'offsite',inner)==[] and url not in items:   items.append(url)items=[]#保存下載地址for i in xrange(15): host='http://www.fontsquirrel.com/fonts/list/find_fonts/'+str(i*50)+'?filter%5Bdownload%5D=local' search(host)if not os.path.exists('ttf'): os.mkdir('ttf')os.chdir('ttf')def unzip(rawfile,outputdir): if zipfile.is_zipfile(rawfile):  print 'yes'  fz=zipfile.ZipFile(rawfile,'r')  for files in fz.namelist():   print(files) #打印zip歸檔中目錄   fz.extract(files,outputdir)#解壓縮文件 else:  print 'no'for i in items:  print i request=urllib2.Request('http://www.fontsquirrel.com'+i) response=urllib2.urlopen(request) html=response.read() name=i.split('/')[-1]+'.zip' f=open(name,'w') f.write(html) f.close()#文件記得關閉,否則下面unzip會出錯 unzip(name,'./') os.remove(name)os.listdir(os.getcwd())os.chdir('../')files=os.listdir('ttf/')for i in files:#刪除無用文件 if not (i.split('.')[-1]=='ttf' or i.split('.')[-1]=='otf'):  if os.path.isdir(i):   os.removedirs('ttf/'+i)  else:   os.remove('ttf/'+i)print len(os.listdir('ttf/'))

搞到了2000+個字體,種類也挺多的,蠻好。

網站二:dafont.com

這個網站的字體花樣比較多,下載起來也比較方便,惡心的是他的文件名的編碼好像有點問題。

#coding:utf-8import urllib2,cookielib,sys,re,os,zipfileimport shutilimport numpy as npcj=cookielib.CookieJar()opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))opener.addheaders=[('User-agent','Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 Safari/537.36))')]urllib2.install_opener(opener)items=[]def search(path): request=urllib2.Request(path) response=urllib2.urlopen(request) html=response.read() html=html.replace('/n',' ') urls=re.findall(r'href=/"(http://dl.dafont.com/dl//?f=.*?)/" >',html) items.extend(urls)for i in xrange(117): host='http://www.dafont.com/new.php?page='+str(i+1) search(host) print 'Page'+str(i+1)+'done' items=list(set(items)) print len(items)if not os.path.exists('ttf2'): os.mkdir('ttf2')os.chdir('ttf2')def unzip(rawfile,outputdir): if zipfile.is_zipfile(rawfile):  print 'yes'  fz=zipfile.ZipFile(rawfile,'r')  for files in fz.namelist():   print(files) #打印zip歸檔中目錄   fz.extract(files,outputdir) else:  print 'no'for i in items:  print i request=urllib2.Request(i) response=urllib2.urlopen(request) html=response.read() name=i.split('=')[-1]+'.zip' f=open(name,'w') f.write(html) f.close() unzip(name,'./') os.remove(name)print os.listdir(os.getcwd())for root ,dire,fis in os.walk('./'):#遞歸遍歷文件夾 for i in fis:  if not (i.split('.')[-1]=='ttf' or i.split('.')[-1]=='otf'):   os.remove(root+i)   print ifor i in os.listdir('./'): if os.path.isdir(i):  os.rmdir(i)os.chdir('../')            
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 彰化县| 新昌县| 勃利县| 鄯善县| 天津市| 达日县| 揭西县| 屯留县| 抚州市| 东安县| 铜山县| 唐河县| 通山县| 偃师市| 武义县| 定日县| 泉州市| 广饶县| 张家口市| 青龙| 华蓥市| 克什克腾旗| 揭西县| 丹寨县| 宜黄县| 紫金县| 呈贡县| 图木舒克市| 莱芜市| 桂林市| 栾川县| 普兰店市| 武穴市| 宣威市| 浠水县| 和静县| 永嘉县| 桐梓县| 乌拉特后旗| 昭觉县| 墨玉县|