Page List

Search on the blog

2010年10月15日金曜日

PythonでHTML解析

最近、pagerankに関する論文を読んで、ネットワーク関係のプログラミングをしたくなってきました。今日はpythonを使った簡単なhtml分析を紹介します。(本当に簡単ですいません。。)

pagerankは言わずと知れたgoogleで使われているwebページの重要度を割りあてるための手法。
論文を読むまでは、ページに重み付けて、入力リンクの重み付け和を計算してるだけだろうと、ナメてました。忘れてました。彼らはStanfordの学生だったのです。
上の計算を大規模なネットワークに適用するために、グラフ理論と行列・固有値を駆使して高速に解くという学術的なことをちゃんとやってました。。

簡易版のpagerankなら簡単に実装できそうな気がしたので(気がしただけ)、pythonを使って勉強を始めようかと思います。

とりあえず、今日やったのは、
  1. yahooのhtml ソースを取得する
  2. 自分のbloggerのページから張っているリンク先のページを列挙する
です。
以下ソース。
まず一つ目。
  1. ''''' 
  2. sample 1 
  3. Get html contents and automatically decode its strings 
  4. '''  
  5. import urllib2  
  6.   
  7. res = urllib2.urlopen("http://yahoo.co.jp")  
  8. charset = res.headers.getparam('charset')  
  9. html = res.read().decode(charset)  
  10. print html  
urllib2というモジュールを使うと簡単にhtmlコンテンツを取得できます。あとは、文字コードを取得してそれをデコードすればOK。

次に二つ目。
  1. ''''' 
  2. sample 2 
  3. Get html contents and get the link from the page 
  4. '''  
  5. import urllib2  
  6. import re  
  7.   
  8. def getHrefAddress(x):  
  9.    x = re.sub(r'^href="|^href=\'''', x)  
  10.    x = re.sub(r'"$|\'$''', x)  
  11.    if re.match(r'http://', x) == None or re.match(url, x):  
  12.        x = None  
  13.    return x  
  14.   
  15. url = "http://techtipshoge.blogspot.com/"  
  16. res = urllib2.urlopen(url)  
  17. html = res.read()  
  18. links = re.findall(r'href=".+?"|href=\'.+?\'', html)  
  19. links = map(getHrefAddress, links)  
  20. links = filter(None, links)  
  21. for link in links:  
  22.    print link  
これは、ちょっと汚いです。BeautifulSoupというHTMLパーサライブラリがあるのでそれを使うともっとスマートに書けそうです。
上のソースでは、正規表現でリンクを取得し、自ページ(サブページ含む)へのリンクやjavascriptへのリンクは無視しています。それらしい情報を取り出すことができました。
次は、取得したリンクから再帰的にページを辿っていくようなものを作ってみたいと思います。

0 件のコメント:

コメントを投稿