cloudwatchに関するhdkINO33のブックマーク (4)
-
はじめに こんにちは、中山です。 先日AWS Summit Tokyo 2016に参加してきました。セッションを聴講している際にスピーカーの方が面白そうなツールを紹介されていました。awslogsというPython製のツールです。これはAmazon CloudWatch Logsをターミナルから直感的に検索するためのツールです。早速使用してみたのでレポートします。 検証環境 awslogsコマンドを利用するためにCloudWatch Logsの設定が必要です。検証環境構築用のコードをGitHubに上げておきました。以下のコマンドで実行可能です。 $ git clone https://github.com/knakayama/awslogs-demo.git $ cd awslogs-demo $ ssh-keygen -f site_key -N '' $ terraform apply
-
-
シンジです。Webサーバーの負荷状況とアクセス状況が1つの画面で見られたら最高じゃねーかということで、Google Analyticsのリアルタイムアクセスの値をAWS CloudWatchのカスタムメトリクスとして送信して、Datadogでダッシュボード化してみます。 簡単な流れ 意外と大変な作業だという認識を持つ Webサーバーは既にあって、Google Analyticsで解析中という前提で進める Google APIでAnalyticsを有効にして、APIキーをゲットする 有効にしたAPIユーザーで、AnalyticsにアクセスできるようにAnalyticsを設定する 適当なサーバー作って、もしくは既存のサーバーで、Google APIなPHPクライアントをGitからコツのいる方法で持ってくる とあるPHPにGoogle APIとAlanyticsの情報、上のファイルパスを書いてや
-
CloudTrailの中身を直ぐに確認したい CloudTrailは、AWSのAPI操作に対する監査機能です。AWSの各種サービスは全てAPIを使って利用します。このAPI利用履歴について全て保管し、監査をすることで、誰がいつ何処から何をしたのか確認することができます。エンタープライズ用途では待ち望まれた機能ですが、ひとつ難点がありました。ログの管理や閲覧の機能を持っていないことです。今回の新機能追加によって、CloudTrailに保管されたタイミングでSNSの通知が飛び、CloudWatch Logsに保管することで、ログの文字列に対する、フィルターやアラームを設定できるようになりました。日時バッチなどでチェックするのではなく、ログが発生したタイミングで確認ができるのが特徴です。今回ははじめからやってみましょう。 S3にログ用のバケットを作成 S3のメニューから新規にバケットを作成します
-
1