Z nejrůznějších důvodů někdy potřebujeme načíst www stránku nejen v prohlížeči, ale i programově. Třeba ji chceme uložit nebo programově zjišťovat, jestli tam je nějaký tag, nebo stahovat všechny odkazy z té stránky. Většinu z toho si ukážeme.
Jak načíst a zpracovat obsah www stránky?
Z nejrůznějších důvodů někdy potřebujeme načíst www stránku nejen v prohlížeči, ale i programově. Třeba ji chceme uložit nebo programově zjišťovat, jestli tam je nějaký tag, nebo stahovat všechny odkazy z té stránky. Většinu z toho si ukážeme.
Stažení je snadné
Python obsahuje spousty báječných modulů přímo ve standardní distribuci. Ten, který se nám hodí pro stahování se jmenuje urllib.
# -*- coding: cp1250 -*-
import urllib
fp = urllib.urlopen('http://www.py.cz/PythonZaciname')
data = fp.read()
fp.close()
Stránku máme v řetězci
V proměnné data máme uloženou celou webovou stránku. A můžeme si s ní hrát. Proměnná data je obyčejný řetězec, takže jako s takovým s ním můžeme zacházet.
Můžeme ji třeba uložit
s=file('StazenaStranka.html','w')
s.write(data)
s.close()
Z hlavičky HTML stránky jsem si přečetl, že : < meta http-equiv="Content-Type" content="text/html;charset=utf-8" />. Přetransformujeme tedy obyčejný řetězec v kodování utf-8 na unicode řetězec a pracujeme nadále s ním.
data=unicode(data,'utf-8')
print data
print '-'*80
print len(data) # kolik ma znaku
print data[100] # pismeno na 99. miste
print len(data.splitlines()) # kolik ma radku
print data.count('program') # kolik je tam slov 'program'
# pokud máme vše v unicode, nedělá čeština problémy
print data.count(u'začít')
Výpis všech odkazů
Pokud bychom ale chtěli vypsat všechny tagy <a>, tak s dosavadním přístupem by to bylo obtížnější. Určitě to jde, ale to si můžeme schovat na jindy. Tento problém jistě řešilo spousty lidí před námi a nám tu po nich zbyly moduly, které to řeší. Tak mě napadá, abychom my nezapomínali na ty, co přijdou po nás ;-).
Ten vestavěný modul se jmenuje HTMLParser. Parser proto, že právě to rozebírání, rozkouskování kódu na jednotlivé elementy, tagy, .. tomu se říká parsování. My ale pouzijeme jiný, jednodušší.
BeautifulSoup
Beautiful Soup je nadstandarní, velmi pythonýrské zpracování HTML stránky. Stáhněte si ho a nakopírujte si ho nejlépe do složky, kam se ukládají všechny slušné moduly - do Python24/Lib/site-packages.
BeautifulSoup neumí zatím moc s unicode pracovat, takže pokud dostanete chybovou hlášku UnicodeEncodeError, doporučuji nepřevádět data na unicode, jak jsem naznačoval výše. Vyzkoušejte následující příklad:
import BeautifulSoup, re
soup=BeautifulSoup.BeautifulSoup(data)
print '-'*80
print soup('a') # všechny tagy, které jsou odkazy v seznamu
atribut href
print len(soup('a')) # kolik jich tam je
print '-'*80
print soup('h1') # všechny nadpisy h1 v seznamu
print '-'*80
titleTag = soup.html.head.title
print titleTag
print titleTag.string
print '-'*80
Za použití mocného ale složitého modulu re můžeme vyhledávat třebas všechny odkazy s atributem href, které začínají na "http".
href= soup('a', {'href' : re.compile('http.*')})
for odkaz in href:
print odkaz['href']
S těmito rozparsovanými řetězci se pak pracuje již daleko pohodlněji než s 'data', kde to máme všechno na jedné hromadě. Daleko více ke všem možným funkcím BeautifulSoup hledejte na jeho HomePage :-). Umí toho opravdu hodně.