douson@?

はてなの話-同村指数

同村指数を計測して分かったのだが、はてなダイアリー利用者中6000人程はhatenadiaryにしか登録されていない。被捕捉アンテナ数が2の人は約1000人居る。大体人目に付く辺りというと被捕捉アンテナ数20以上だと思うのだが、そういうはてなダイアリーは300しか…

アップ完了です。

はてなダイアリー同村指数計測 - indexとかそういうタイトルだった筈。 弄りたい方はどうぞ。 じゃ、本屋寄って帰る。

おとなり頁と同村指数を比べてみよう その2。

すべてAさんが基準。 douson1はsugio方式、douson2はlog使用方式、douson3ははてな方式、douson3'は相手側から見た場合のはてな方式。 もう一度計算方法を書くと m:重複数 a:hatenadiaryを除いた自分自身の被登録アンテナ数 a':プライベート被登録アンテナ数…

アップロード中

学内からアップロード中。ftp-proxyがあるのね。 いやー快適な回線は素晴らしいなぁ。 残り2800個。

おとなり頁と同村指数を比べてみよう

はてなダイアリー - はてなダイアリー日記 (52:52%) はてなダイアリー - nobodyの日記 (34:34%) はてなダイアリー - 幻燈稗史/magic-lantern romance (34:34%) 読冊日記 (33:33%) はてなダイアリー - hirokiazuma.com@はてな (33:33%) Beltorchicca (30:30%)…

同村指数

えーと、仕方が無いのでとりあえずRocket3の方にアップ。 index.htmlからそれぞれのcsvにリンクを張るということで解決しよう。そうしよう。 今、もの凄い勢いでcsvアップ中。

同村指数

どう考えても検算する為に重複個数が必要。 重複個数の出し方は同村指数を使うとよい。 m:重複数 a:hatenadiaryを除いた自分自身の被登録アンテナ数 b:hatenadiaryを除いた比較対象idの被登録アンテナ数 とした時に 表計算ソフトに突っ込めば何とかなる筈。

おとなりページね

せこせことデータ整理している間にそういうものが出来ていたか。2chのはてなダイアリースレで知った。 しかし回線(以下略の所為で見られない。俺にもMap機能を見せてくれ。2chには繋がる癖に。

解析終了

終わったのは二時間ほど前。しかし回線の調子悪すぎ。55MBのファイルをアップすることが不可能である。 学校ならと思ったがftpのポートが利用出来ない。 てことはネットカフェか。参ったな。 明日の四時頃からCD-ROM持って回るか。しんど。

ずれる理由判明

大文字と小文字の区別か! FujikoさんとfujikoさんとかTomoyaさんとtomoyaさんがいるんだね。 よし分かった。もう一回Grep置換してから計測するぞ。

同村指数計測完了寸前

重複数記録し損ねました。もう知りません。 sugio氏@id:sugioの計測データとの間に誤差があるのは仕様です。理由は2003/10/13 あれ?に書いてあるように計算方法がちょっと違うのです。 とりあえず俺のデータから上位10名を並べてみると以下の通り。 id:puput…

あれ?

2888人分しか無いよ? 同村係数勘違いしていたからもう一度やり直しだよ。多い方が分子か。騙された。 hatenadiaryは被登録アンテナリストから抜いてあります。 idは自分自身も比較対象自身もカウント。そこの排他処理面倒臭い。 データの形式は 比較対象id,…

データ処理

何とか2897人分出来そうです。後はid.csvというファイルを書き出す様にするだけ。出来たら2897+1ファイル配布しますですよ。 id.csvの中に、 比較対象id,同村指数,比較対象idの被登録アンテナ数 ってのをずらずら並べようと思ってます。 filelist.txtの方に…

データ解析用

@array1と@array2を比べて同じものだけ抜き出すとかそういうことは無理か。無理なのか。foreachで繰り返しですか。 list.txtの長さをnとしてxxx.datの項目数の最大値をMとすると、 想定計算stepはO(n^2*M^2)か? 上手く組めば半分位にゃなる筈なんだが。

データ解析用

ようやくデータ解析用のplファイルを書き始める。 今まで一度もperlを書いたことが無いという点がポイント。 適当なディレクトリにdelete.txtと一緒に突っ込むとdelete.txt中のファイルを全部消去するplファイルと適当なディレクトリに突っ込んだらそのディ…

データ整理続き

だらだらしながらデータの整理中。 xyzzyで下のtxt群に対して\nhatenadiary\nでGrep検索掛けたら6245件も引っ掛かりましたよ? 怪しいけどまぁ信用してみよう。これで2899ファイルを扱えばいいことになった。良かった良かった。

データ整理続き

20031011095146 smoking186 include_pid=232789.txtは以下の様な感じ。 \n tsugita,hatenadiary,nyah,yu-rei\n

データ整理

つか、今のPCにxyzzy入ってるやん。Grep置換出来るやん。 寝て起きたら置換してデータ作る予定。

ezhtml

あ、実はezhtmlのGrep置換は結構強力。2000ファイルも難無く置換して呉れるとは。1000ファイルのリネームをやろうと思ったらリネーム用のソフト落ちたのにな。 bmp氏が紹介してくれたツールは便利そうであるが、既にリネームは済んでしまったので後の祭り。…

データ取り

ついでなので面白そうなデータを抜書き。 調査したのは2003/10/11 13:05:35。 はてなダイアリー内のダイアリーで最初にアンテナに登録されたのは、銀の弾丸@?D,http://a.hatena.ne.jp/include?pid=161802。 で、500毎に区切って最終更新時刻を見ていくと以下…