serverに関するAltNightのブックマーク (3)
-
地味に色々と調整しているのでまとめておきます。見よう見まねの継ぎ接ぎばかりですが…。AutoPatchWorkはwedata(About - wedata)のAutoPagerize用SITEINFOを使わせて頂いていますが、wedataのサーバーは負荷に弱いので、SITEINFOは自前のサーバー(といっても安心のhetemlですが)に置いています。 hetemlサーバーでcronを設定して1時間に1回、SITEINFOを更新するようにしていて、AutoPatchWorkユーザーは一日に1回hetemlサーバーからSITEINFOを取得しています。 ただ、AutoPagerizeのSITEINFOは2MB近くあるので、1万人が毎日アクセスしたら転送量が20GBに達します(全員が毎日更新にくるわけではないので、実際はもっと少ないですが)。hetemlの転送量は﹁目安として1日 20GB
-
Twitterの大規模システム運用技術、あるいはクジラの腹の中︵前編︶~ログの科学的な分析と、Twitterの﹁ダークモード﹂ 先週の6月22日から、米サンタクララで行われていたWebサイトのパフォーマンスと運用に関するオライリーのイベント﹁Velocity 2010﹂が開催されていました。 その中で、TwitterのJohn Adams氏がTwitterのシステム運用について説明するセッション﹁In the Belly of the Whale: Operations at Twitter﹂︵クジラの腹の中‥Twitterでの運用︶が行われています。Twitterのような大規模かつリアルタイムなWebサイトの運用とはどういうものなのでしょうか? 公開されているセッションの内容を基に概要を記事で紹介しましょう。システム管理者の新たな役割、Railsの性能の評価、Bittorrentを使った
-
自作サーバカンファレンス : ATND 自分用メモなので他の人が読んでもきっと役に立ちません。 全体 基本は﹁クラウド(EC2)高い、ベンダサーバムダに高い、だから自作にしよう﹂ ほとんど皆1Uハーフ、たまに2Uハーフ ディスクは2.5inch、DBスレーブにはIntel SSD使うところ多し 用途はAPサーバ、DBスレーブ、ストレージサーバなど サーバ代は大体5-10万/台 最大1Aを少し超えるぐらい、アイドル状態で0.5Aとか ソフトの話だが、皆当たり前にLVS使ってた はてな 物理オペレーションをほとんどアルバイト任せにしている点が印象的。大手SIだと子会社や派遣の人を使ってやらせる作業。 ベンダ製サーバに全く頼っていないためか、自作サーバの中では最もまともに見えた。APサーバで8万、DBサーバ(SSD)で16万、ネットワークサーバで10万ほど。 材料は値段の高騰等を見据えて2,3
-
1