こんにちは、らくからちゃです
2年連続ステイホームのゴールデンウィークになりそうです。
もはやゴールデンウィークって普段何してたのか忘れかけてきたので、過去の履歴を漁ってみたら、一昨年は伊豆半島の東側をぐるぐる回りながら下田までいってたみたいです。
そういやコロナ前のゴールデンウィークって何してたんだっけ?と思ってGoogleフォトのフォルダ漁ってみたら、伊豆半島をぐるぐるしてたらしい。
— らくからちゃ@育休中専業主夫 (@lacucaracha) 2021年5月3日
また落ち着いたら行きたいなあ。 pic.twitter.com/N0fNxIZ5Uq
こんなどこにも行けない日には、家でデータ分析をするに限りますね!!(鼻息)
統計局が、e-statを使って遊ぶ方法も教えてくれるそうなので、ご興味がある方は是非!
統計として公開されているデータを眺めてみるのも面白いっちゃ面白いのですが、データ分析の醍醐味は統計処理される前の生々しいデータを弄くり倒すところにあると思うんすよ。
ただKaggleでランカー目指すぞい!!と殴り込みに行くにはハードルが高いなあとお思いでしたら、目の前になかなかいじり甲斐のありそうなデータがあるじゃあないですか。コイツです。
はてブデータ収集ツールの使い方
定期的に「はてなスターランキング」と称した記事を書いておりますが、このランキングは、はてなの公開しているAPIを叩いて出てきたデータを使用しています。
これらのデータは、数年前にたまたまそのとき勉強していたJavaで書いた自家製ツールで収集していました。ただメンテ性も良くないし、いろいろと直しておきたい箇所もあったので昨年末にPythonで書き直してみました。
かなり扱い易くなったはずですし、個人的な備忘も兼ねて、データ収集の方法について整理したいと思います。
ツールの開発・実行環境は、
- iMac 27-inch,Late 2013(そろそろ買い替えたい)
- mac OS Catalina 10.15.7
- Python 3.7.1 (Catalinaの標準)
- SQLiteStudio 3.3.3
になります。特に有償のツールやサービスは使いません。同じような環境であれば、WindowsでもLinuxでも平気なはず。あとはネットと電気とやる気があれば大丈夫(たぶん)
データの収集・集計には、SQLを使用しますが、特に難しく考えなくて平気です。(むしろちょうどよいSQLの練習になるかも)
1〜3まではMacなら勝手についてきているはずです。Windows・Linuxの似たようなバージョンを突っ込んでください。4のSQLiteStudioは下記から別途インストールしておきましょう。
インストールできたら、データを保存するデータベースファイルを作りましょう。
分かりやすくドキュメント直下にファイルを作ってみます。(別の場所でもOKですが、デスクトップみたいに権限が付与できない場所だとアレかも)
作ったファイルの中に
- Page(対象となるページの情報)
- Bookmark(個別のブックマーク情報)
- Star(ブックマークに対するスター)
の3種類のデータを格納するテーブル(表)を作成します。以下の呪文を順番に詠唱すればOKです。(②→③をそれぞれ3回実行)
Page
Bookmark
Star
作ったテーブル構造の説明もしておきたいところですが、データが入った段階じゃないとイメージがつきづらいでしょう。細かい解説は後回しにして、まずデータを取得しましょう。
さてここで、今回Python化した収集スクリプトの登場です。
非エンジニアが「動けば良い」の崇高な精神のもと書いたスクリプトなので、ツッコミどころは満載だと思いますが、気にせず適当な名前で保存してください。そうですね "hatena.py" にでもしましょうか。
このスクリプトは、標準のライブラリに加えてBeautifulSoupを使います。ターミナルを起動し、以下のコマンドでインストールしましょう
これで準備完了です!!
このスクリプトは、
- 第一引数 取得対象の年月日(YYYYMMDD)
- 第二引数 格納先のデータベース
で実行できます。ターミナルで下記のように命令を実行ください。
こんな感じで、データの取得が始まれば成功です。
はてブデータ収集ツールの仕組み
このツールがどんな手順でデータを取得しているのかは、中のデータの特性を抑えるためにも必要だと思うので、簡単に説明いたします。はてなブックマークには、デイリーのランキングページがあります。
例えば、2021年1月1日だとこんな感じ。末尾の部分が指定した引数と同じになります。
ページを開いてデベロッパーツールで眺めてみると、"entrylist-contents"の中に、それぞれの要素が格納されていることが見て取れます。
この中から、記事のURLのリンク部分を取得して、はてな社が公開しているAPIに投げつけて、それぞれのページに対するブックマーク情報を取得します。全ブックマークデータを対象とすると処理に時間がかかりすぎるため、コメント付きブックマークに対してスターの付与状況を取得します。
APIの詳細は下記をご参照ください。
こうしてウェブページからデータをぶっこ抜いてくる手法を「スクレイピング」と言います。詳細は、さいとーさんの本が大変評判が良いので気になる人はご一読ください。
スクレイピング・ハッキング・ラボ Pythonで自動化する未来型生活 (技術の泉シリーズ(NextPublishing))
- 作者:齊藤 貴義
- 発売日: 2020/09/04
- メディア: Kindle版
話を戻すと、このスクリプトでは
- デイリーランキングに乗っているページが対象
- 取得したページから、コメント付きのブックマークに対してスターを取得
になります。よって、
- デイリーランキングに乗り切らなかったページへのコメント
- タグだけ、コメントを後で消したコメントへのスター
は集計対象から外れますので、その前提で扱ってください。
はてブのデータを見てみよう
SQLiteStudioで、まずは単純に取得したページのデータを見てみましょう。以下の手順で操作してください。
下記のようなデータが表示されました。
- EID
- DATE
- CATEGORY
- ENTRYRANK
- COUNT
- TITLE
- URL
列名でおおよそ推察がつくとおもいますが、この中で分かりづらいのは「EID」でしょうね。これは(おそらく)EntryIDの意味で、各ページに対してはてな側が付与している識別用IDです。
なおDATEはランキングに表示された日付(≠記事が投稿された日付)で、RANKは当日ランキング上の表示順です(≠ブクマ数順位)。
次に、特定ページに対するコメントをスター数の多い順番に並び替えて見ましょう。
Bookmarkテーブルを開いて、フィルター窓に抽出したいEIDを指定して、Starcountを降順ソートすれば結果が見れます。これくらいの内容であれば特にSQL文を書く必要もありません。
もう少し複雑なデータを取得する場合は、SQL文を書く必要があります。例えば下記は、「lacucarachaのブックマークに対してスターをつけた人を、ページ毎の重複ブックマークを除いて集計し、降順で表示する」といった命令になります。
実際にこのSQLを実行するとこんな感じに表示されました。ほお・・・。
SQL文が書ければ、かなり複雑なデータを抜き出すことも出来ますし、エクセルに結果を貼り付けることも出来ます。あとは解析してブログに書くもよし、増田に怪文書を作るもよし、機械学習の教師データとして使ってみても面白いでしょう。
取得したデータを個人の趣味の範囲で利用するぶんには問題ないと思いますが、念の為API規約についてもご一読ください。
この程度でどうにかなる、はてなのサーバーではないと思いますが、「当社または他者のサーバーに過剰に負荷をかける機能」にならない範囲でお楽しみくださいまし。
ではでは、今日はこのへんで
今週のお題「おうち時間2021」