サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
都知事選
yutori-datascience.hatenablog.com
お久しぶりです。tkmです! Kaggle AdC '23の6日目として「米国の大学・企業でのKaggle実績の受け取られ方雑感」についてつらつらと書いて行きたいと思います。 qiita.com 昨年Kaggledays Championship at Barcelonaでの優勝から、Kaggleとは少し離れてしまっていますが枠が空いているということで技術的ではないポエムですが投稿します! 注意:これは私が体験した極めて主観的な感想であり一般化して受け取るのは危険です。 TL;DR 実績にそれほど効果はないが、獲得賞金を交えて話すとたまに効く。 正直、実績にそれほど効果はないしGMだからってそれで超すごい!みたいになることはない。 こっちの大学でも機械学習の授業でKaggleは一応習うが特にガチる人は見たことないし、教授としてもコンペと研究は違うと認識しているのでKaggleの実績単体で超
お久しぶりですtkmです。昨年に続き、社会人学生AdC '22の12日目として日米研究室の違いについて話して行きたいと思います。もう流石に留学生活ネタは尽きてしまったので、そこは他の方のを見られるとよいかもしれません。 adventar.org 昨年の記事はこちら yutori-datascience.hatenablog.com *私の詳細な留学模様については過去の記事をどうぞ Ph.D.編入が決まったので入学からあったことを時系列で書いてみる - tkm2261's blog 米国大学院でCS修士について書いてみる - tkm2261's blog コネなし論文なし英語苦手なアラサーのおっさんだけど米国CS大学院入学に頑張ったので全てを晒す ー はじめに - - tkm2261's blog TL;DR: 日本の研究室は人が少なすぎる 煽った記事タイトルをつけましたが、別に日本の教授や
kaggleツイートコンペPrivate 5位でした!GMまであとメダル2つ pic.twitter.com/psshCyctgp— Takami Sato (@tkm2261) 2020年6月17日 解法 (英語) www.kaggle.com 解法(日本語) チーム組んだguchio3さんの記事 guchio3.hatenablog.com 解説動画 www.youtube.com
こんにちは、tkmです。 最近ちょうど車の更新の案内が来たので車を個人売買で買った時のことを書いておきます。 免責: これで実際車買ってトラブルにあっても知りません。1年前のことを思い出して書いているので正確でない場合があります。そもそも州によってルールが違う場合があります。 個人売買のトラブルは多い 個人売買の魅力はディーラーで買うよりも安く車を手に入れられることですが、典型的なレモン市場であるので結構トラブルも多くあります。 周りで聞いた話だと オイル漏れしているが、試運転前にはオイル突っ込んどいて動くようにして、買った翌日には動かなくなっていた エアコンとかが壊れてて結局修理に2,000ドルぐらい使った などなどがあるので、長く滞在する場合は新車を買うことも視野に入れても良いかもしれません。20,000ドルぐらいあれば買えるかと。 私は大学のFacebookコミュニティ経由で車を購入
こんにちは、tkmです。 このブログではポエムはあまり書かないことにしてたのですが、最近エンジニア勉強会(特にML系)が募集後すぐに埋まるツイートを目にしたので、 エンジニア勉強会全盛期(TokyoR, TokyoWebMiningなどの時)に学生で参加してから、kaggle meetupとかで運営するようになったので色々思うことを垂れ流して見ます 持続的な勉強会(コミュニティ)に必要なこと 適度な内輪感と公共性の両立 質の高い発表者の確保は最優先 運営から一言声を掛けるのがとても大事 発表することが目的の発表を排除 参加者の質も最低限確保したい 勉強会おじさんは絶対排除。慈悲はない それでも新規参入者の敷居は低く 内輪盛り上がりは予想以上に外部から醜悪に映る コアになる常連メンバーは必要 運営は出しゃばらない どこまで公共性を追求するか いま思っていること 優しい終身の独裁者は必要なのか
こんにちは。tkm2261です。 今日は2018/5/12に開催したKaggle Tokyo Meetup #4の模様をレポートします。 connpass.com このmeetupも4回目となり、今回はGoogle様からサポートを頂いた事もあり、かなり大規模なmeetupになりました。 今回からMaster枠とExpert枠を設けたり、Youtube Liveをしたり、人数を増やしたりと色々新しいことを試しています。 さらに自分で言うのもアレですが超豪華なスピーカーになっています。 本日の見どころは 競プロ界の神tourist wataさん 金メダル2個のnovice pocketさん 苦労人masterのterekaさん scikit-learn生みの親davidCさん LTなのに一ヶ月前から資料作ってたjackさん 2 stage制の鬼osciiartさん talkingdata覇者f
こんにちはtkmです。今日は留学に必要な英語を解説していきたいと思います。 大学院留学を考えている人の最大の懸念は英語と思いますし、受験を思い立った時にTOEIC630点というスコアから始めた自分にとっても最大の懸念点でした。 超一流校はTOEFL iBT 100点、とりあえずは90点 私がざっと調べた感じだとCSのPh.D課程のTOEFLの要求スコアはこんな感じです。 ※免責: 間違ってても責任とりません。 TOEFL iBT100点というのが英語がちゃんと出来るという一つの目安になってます。 最低スコアがないPrincetonとかもこんな記載をしています。 https://www.cs.princeton.edu/grad/faq#23 とりあえずはUC Bercleyの90点を目安にするのが良いと思われます。 TOEFL iBT 100点と90点の間には大きい壁がある。 受験された方
皆様 こんにちはtkmです。 今回から数回に分けて米国のComputer ScienceのPh.D.とM.S.の受験について語っていきたいと思います。 はじめに 英語(TOEFL)対策 GRE対策 SoP [エッセイ] 対策 国内奨学金応募 推薦状依頼 出願先の決め方 出願とそれまでのスケジュール 出願後の過ごし方 お金編 GPA編 Ph.D.は駄目でしたがUC Irvine MSCSから合格を貰えたので後に続く人たちのためになるっぽいもの書いていきます。 【速報】ワイUC Irvine CS修士に合格 PhDは全滅だったし、修士でいくお金を確保できるか怪しいけど とりあえずコネなし論文なしアラサーでも頭おかしい米国CSの倍率をくぐり抜けたられ事を素直に喜ぼう— Takami Sato (@tkm2261) 2018年4月11日 スペック的には下界を攻めた気がするので多くの人に勇気を与えた
こんにちは 今日はNIPS2017読み会@クックパッドでLightGBMの論文紹介してきたのでブログにします。 cookpad.connpass.com Twitterで既に告知しましたがブログに残しておかないと埋もれるのでこちらにも置いておきます NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree from Takami Sato 今回は急遽前日に発表が空いたのでニート力を活用して発表して来ました。ノリと勢いで行動出来るのはニートの特権 完全なノリと有り余るニート力を活用して明後日1/27にLightGBMの論文紹介することになりました。 参加者の皆様よろしくお願いします!#nips2017reading https://t.co/UG1Xyxfj5o— Takami Sato (@tkm226
こんにちは。tkm2261です。 今日は10/28に開催したKaggle Tokyo Meetup #3の模様をレポートします。 connpass.com このmeetupは@threecourseさんや@smlyさんが2年前ぐらいから始めて不定期で開催しており、 私もニートの有り余る労働力を活かして今回運営をして来ました。 開始前 今回はsmlyさんの勤め先であるアドバンステクノロジーラボさんに会場をお借りすることが出来ました。 いよいよKaggle Tokyo Meetup当日です! 入り口入って右手のエレベーターで4Fです お待ちしております! pic.twitter.com/80r6soIJ9H— Takami Sato (@tkm2261) 2017年10月28日 渋谷の超良いところにあって、美術館の上という超良いところのオフィスでした。 今回、Youtubeのチャネル登録者数が
皆様こんにちわ 今回はKaggle入門動画作ったので、その事について書いていきます。 Twitterでも告知したし、ブログは良いかなーと思ってたのですが、 ニートで新しいこと挑戦企画としてYoutuberになってみました Kaggleの提出までを環境構築からライブコーディングして実況解説してみました。私流のKaggleワークフローですがよければ見てみて下さいhttps://t.co/0QUDEa1etK— Takami Sato (@tkm2261) 2017年10月20日 英語の翻訳タイトルつけると、Googleが日本語でインデックスしてくれない事に気づき、ブログにも投稿することにしました。 良ければ見てみて下さい。 Kaggle入門 Porto Seguroコンペ www.youtube.com 規約的に怪しかったので、Kaggleにも問い合わせてOK貰ってます。 https://ww
皆様、お久しぶりです。 以前のエントリでも触れましたが、絶賛ニートを楽しんでおります。 ニートになって早3ヵ月ですが、率直な感想としては、 世界がこんなに輝いていたとは! っといったところです。 将来を犠牲にした束の間の天国かもしれませんが、体力ある20代に自分の時間を取れるのは最高です 5年もエンジニアしていたら勉強したいことが貯まるのは当たり前なので30歳前後で1年ぐらいニート期間は超おすすめです。 ポエムはエントリの最後の方にするとして、ニートのなり方とニートの私流楽しみ方を共有してニートの布教に努めたいと思います 手続き編 健康保険 年金 住民税 失業給付 ハローワーク(失業給付)編 STEP:1 書類の準備 STEP:2 ハロワに行く STEP:3 失業給付説明会に行く STEP:4 初回認定日に行く STEP:5 就活する(ハロワで求人検索) STEP:6 認定日に行く 勉強編
皆様tkm2261です。この頃連投が続いてますが、 最近まで参加していたInstacart Market Basket Analysis | Kaggleで色々やったので残しておこうと思います。 このcallback関数は便利ですが、Kaggleなどでヘビーに使う人以外ここまでしないと思うので活躍するかは微妙なところです。。。 LightGBMのtrain関数を読み解く callback関数の仕様 受け取る引数はひとつ (lightgbm.callback.CallbackEnv) データのアクセスはAPI経由 あとは好きに実装 自前early stoppingのやり方 一応書いたけど。。。 LightGBMのtrain関数を読み解く xgboostもそうですが、lightgbmにもtrain()という関数がありLightGBMユーザはこれを使って学習を実行します。 scikit-lear
お久しぶりです。絶賛ニートを楽しんでるtkm2261です。 今日はTwitterで意見が諸々散見されたので、私のKaggleでのgit活用法を共有しようと思います。 Gitの独学はハードルが高いですよね。。。 gitの運用は開発プロセスと密接なのであまり外に出てこなかったり、 実際に自分でやらないと覚えない系なので独学は結構難しいと思ってます。 (同じ理由で、テストコード系も広まらなかったり) 私も学生時代はSVNに馴染めなくて、業務でプロダクト開発して初めてバージョン管理が身についたタイプです。 最初はSourceTreeで慣れ親しんで、gitコマンドという流れを辿りました。いきなりGitコマンドのハードルの高さは理解してるつもりです。 www.sourcetreeapp.com とはいえ、慣れるとこんなに便利なものはないので、出来る限り平易に語りたいと思います。 Kaggle利用特化(
LightGBMとは Microsoftが公開しているGradient Boosting Decision Tree(GBDT)の実装です。 github.com GBDTの実装で一番有名なのはxgboostですが、LightGBMは2016年末に登場してPython対応から一気に普及し始め、 最近のKaggleコンペではxgboostよりも、Winning Solutionで多く見る気がしています。 私もQuoraコンペではお世話になりました ニートなので金がない 在職中は会社のマシンで回してたりしたので、気軽に32コアぐらい使ってましたが、 ニートで自費で借りると破産しかねないのでGPUで高速にならないかなーと思って検証しました。 環境構築 AWSのp2.xlargeでAnaconda3系使って検証しました。 基本はここに従います。 LightGBM/GPU-Tutorial.md a
お久しぶりです。最近、色々ありましてブログを再開しようと思います。 基本的に、スライド作って話す事が多いので、まずその辺りのこと書こうと思います。時系列狂うかもですがご容赦を 今月6月に終了した、Quora Question Pairs | Kaggleに参加してソロ17位でした。 あと1個上の順位だったら、ゴールドメダルだったので悔しくて仕方ないですがMasterになる前にもっと精進せいというお告げと信じて頑張ります 手法とかはこちらにまとまっています。 Quoraコンペ参加記録 from Takami Sato コンペ後に適当な感じで社内勉強会に外部の方も招待したら、かなりの人数が集まり議論の活発な良い勉強会となりました。 smly氏はFileHandlerとStreamHandlerでファイルにも吐いているとのこと 最近xgboostやLightGBMは標準出力めっちゃ出してくるか
今回はGPUの数値実験についての記事です。 計算環境 OS: Windows 7 64bit CPU: Intel Core i7-4771 CPU @ 3.50GHz GPU: NVIDIA GeForce GTX 650 MEM: 32GB 我が家の計算マシンです。 これをWindowsで構成しているのは、もったいない気がしていますが、 LinuxにGPU載せても用途が限られすぎるので妥協です。 環境構築 ここまで、特に環境構築について触れて来ませんでしたがGPUを使うと苦労したので少し書きます。 結論としては、『Anacondaを入れましょう!』が最善手のようです。 Download Anaconda Python Distribution Win機64bitで環境を揃えるのはかなりめんどくさいです。というか頑張ったんですが エラーが直らず断念しました GPU使わないなら、Gohlk
今回もNumbaのドキュメントを読んで行きます。 Numba — numba 0.15.1 documentation と思ったんですが、読み進めて行くと以外に紹介する内容が少ないことに気づきました。 シンプルなのは良いことなので、今回はUFuncを紹介して、 次回にGPUについて紹介して入門編は一旦終わりたいと思います。 その後に、Numbaを勉強する動機となったものを中心に応用編を話す予定です。 UFunc UFuncs — numba 0.15.1 documentation UFunc(ユニバーサル関数)とは、要するにnumpy.ndarrayに対して要素ごとに演算してくれる関数です。 例えばnumpy.logに配列を食わせると、こんな感じです。 >>> import numpy >>> hoge = numpy.arange(1, 5) >>> hoge array([1, 2,
次のページ
このページを最初にブックマークしてみませんか?
『tkm2261's blog』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く