URL 抽出〜

お仕事したり、ruby を書いたり、寝たり(コラ)。 LS EZ2-Install なんてのがあるのね。ほーほー。LS さわってないわー。っというか、LS の入ってる PC をなかなかたちあげなくなってしまっておりまして、Plamo で KDE が動いております。ほとんどネットで資料あさり(っというか息抜き)するか、テレビにしか使っていないので、あんまかわらんです。 xyzzy & meadow と skkime で linux の環境に慣れるようゴソゴソやっていたので、linux に移ってもあまり違和感はありません。テレビが見られなくなったくらいで(w。 少しは日本語の絡みで辛かったりしますけど、Mozilla と Emacs くらいしか使ってないしぃ〜

さて、イカのログから URL をひっこぬいて多くアクセスした順に表示するアレですが、とりあえず、ログの入ったディレクトリからファイルを読みこんで、出力するところまでいきました。表示しなくても良い URL は正規表現でホゲっと消せるようにもしました。えー、いまのところそれだけです(^^;;

次は、指定した URL にタイトルをつけられるようにしようかと考え中です。リストにして見た時に http://hogehoge〜 ばっかりだとちょいと探しにくいので。「ブラウザにブックマークするほどでもないけれどあとで見るかも」な所なんかに指定するといいかな〜と。

その後は、CGI にして、ソートやら検索やら探す系と、カスタマイズも web からできるようにしたいです。squid の log そのまんま何度もパースすると重いので、CGI の前に小さいデータ(?) に変換しないといかんとは思うのですが。

っと、こういうの考えるのはものすごく楽しいです。組む組まないは別として(汗。本当はこんがらがる前に UML のお勉強をしておこうと思うのですがぁ〜、本読んでるとコード書きたくてうずうずしてくるんです。が、いそがばまわれ、ちゃんと設計しないと。ワタクシは”ミスターいきあたりばったり”だからなぁ(死