KubernetesでオーケストレートされたDockerコンテナでTensorflowを動かすKubeflowというツールがGithubに上がっていました。 https://github.com/google/kubeflow ためしに動かしてみました。 Kubeflowとは KubeflowはKubernetesで機械学習を動かすためのスケーラブルでポータブルな環境を提供します。 目的は"to provide a straightforward way for spinning up best of breed OSS solutions"とのことですので、OSSで機械学習基盤を実現するシンプルな構成を提供するというものだと思います。 Kubeflowには以下が含まれています。 - JupyterHub - Tensorflow Training Container - Tensorfl
お客さま各位 さくらインターネット株式会社 平素よりさくらインターネットに格別のご愛顧を賜り、誠にありがとうございます。 2017年11月30日に、NVIDIA Corporationのドライバソフトウェアの使用に関するライセ ンス条件が改訂され、最新のGeForce用のドライバソフトウェアのライセンス条件に、 「データセンターへの導入の禁止」の条項が追加されました。 詳細は、下記URLより第2.1.3条をご参照ください。 ・日本語: http://www.nvidia.co.jp/content/DriverDownload-March2009/licence.php?lang=jp&type=geforcem ・英語: http://www.nvidia.com/content/DriverDownload-March2009/licence.php?lang=us&type=gefo
株式会社IDCフロンティア(本社:東京都新宿区、代表取締役社長:石田 誠司、以下IDCF)は、ディープラーニングプラットフォームを構成するコンポーネントとして、GPUサーバー(*1)をクラウドの時間課金からベアメタルサーバー、スーパーコンピューター並みの計算能力(*2)を発揮するシステムまでフルラインアップで提供することを発表します。 第一弾として、「NVIDIA(R) Tesla(R) GPUアクセラレータ M40」を搭載した仮想マシンを、IDCFクラウドの最上位タイプとなる「IDCFクラウド GPU BOOSTタイプ」として、初期費用0円、1時間400円の従量料金制で11月25日より提供を開始します。NVIDIAの最新世代となる「NVIDIA(R) Tesla(R) GPUアクセラレータ P100」を搭載したサービスは、2017年2月からの提供を予定しています。 さらにGPU搭載のベア
TensorFlow for RがRStudioからリリースされたので早速試してみた。環境構築が面倒になってきたのでEC2上にDocker環境を構築し、tensorflow+rstudioコンテナを作ったので手順をメモしとく。 項目 設定 リージョン オレゴン Amazon マシンイメージ CentOS 7 (x86_64) - with Updates HVM インスタンスタイプ g2.2xlarge ストレージの追加 EBS Cold HDD (sc1) 500GB CUDA 7.5 事前にCUDAのインストール、nouveauの無効化はしておくこと。 Docker, nvidia-dockerのインストール ホストとなるEC2にInstallation on CentOSに従ってインストールする。 # yumのリポジトリにDockerを追加 $ sudo tee /etc/yum.r
www.thiroyoshi.mydns.jp is not accessible... Sorry. I do not know why this site is not working. If you know Administrator of this site, please contact directly. You may be able to see it in Google cache. For administrator ... MyDNS.JP did not received IP address from you over One week. Please check your notify system. If you restart notification of IP address, MyDNS.JP will apply your IP address t
NVIDIA の GPU の使用率を、Ganglia で監視するようにした。 GPU の状態は nvidia-smi コマンドで取得できる。dmon モードで起動すると、連続的に1エントリ1行の形式で出力してくれる。 nvidia-smi dmon -s pu -d 5 # gpu pwr temp sm mem enc dec mclk pclk # Idx W C % % % % MHz MHz 0 64 36 0 0 0 0 3004 745 1 68 36 94 4 0 0 3004 745 0 64 37 0 0 0 0 3004 745 1 64 37 0 0 0 0 3004 745 0 21 37 0 0 0 0 324 324 1 21 37 0 0 0 0 324 324 0 21 36 0 0 0 0 324 324 1 21 35 0 0 0 0 324 324 .
Note: this post was co-written by Alex Şuhan and Todd Mostak of MapD. At MapD our goal is to build the world’s fastest big data analytics and visualization platform that enables lag-free interactive exploration of multi-billion row datasets. MapD supports standard SQL queries as well as a visualization API that maps OpenGL primitives onto SQL result sets. Although MapD is fast running on x86-64 CP
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く