タグ

データに関するnezukuのブックマーク (6)

  • 📙Unicode絵文字の日本語読み/キーワード/分類辞書📙


    emoji_jaUnicodeUnicode TwitterInstagramSNSemoji2vecdeepmoji使😀使🍣🍺[,2015]/////6
    📙Unicode絵文字の日本語読み/キーワード/分類辞書📙
    nezuku
    nezuku 2020/07/21
    Unicodeの絵文字の日本語読み、キーワード、分類、3種のJSONデータセット / SlackやGitHubのようにコロンからよみを入力して絵文字に変換できるユーザ辞書も https://github.com/peaceiris/emoji-ime-dictionary
  • 大谷シフトに、1回限定の先発投手。メジャーは野球の常識を常に疑う。(ナガオ勝司)

    大谷翔平が「投打二刀流」でプロ野球の概念を変えるずっと前から、メジャーリーグは――まったく違う方法で――既成概念への挑戦を続けてきた。 打率より出塁率。出塁率よりOPS(出塁率+長打率)。守備に依存しない防御率。守備における貢献度や攻撃における得点への貢献度を正しく割り出す数式……等々。 選手の力量を見極める新しい指標が発見され、今では普通に使われている。それらの新しいアイディアを検証するため、拠地球場のみならず、傘下のマイナー球場やキャンプ施設にまでカメラが多数設置され、あらゆる角度から映像解析をすることができるようになった。 高速度撮影による映像をデジタル処理して、もっとも効果的な球の回転数や回転軸、打球の角度まで検証されるようになった。 スカウトの裸眼だけで選手の力量を見極めたのは遠い過去の話だ。今ではストップ・ウォッチやスピードガンといった道具を使うスカウティングですら、伝統的な

    大谷シフトに、1回限定の先発投手。メジャーは野球の常識を常に疑う。(ナガオ勝司)
  • 「乗り換えで歩く距離」が長い駅ランキング


    JRJR 3調  12調使 
    「乗り換えで歩く距離」が長い駅ランキング
    nezuku
    nezuku 2017/05/18
    武蔵小杉の東海道線-南武線or東横線がなぜランクインしていないという反応多数だった。上位勢に比べるとそう長くない測定結果だったの? / 単純に長い京葉線や意図的(?)に距離の長い秋津-新秋津がきつい感。
  • 情報学研究データリポジトリ データセット一覧

    2024/06/27 現在 民間企業提供データ Yahoo!データセット 国立情報学研究所がLINEヤフー株式会社(旧社名 ヤフー株式会社)から提供を受けて研究者に提供しているデータセットです。 Yahoo!知恵袋データ(第3版) (2024-04-01 更新) 楽天データセット 楽天グループ株式会社が国立情報学研究所を通じて研究者に提供しているデータセットです。 楽天市場の全商品データ,レビューデータ 楽天トラベルの施設データ,レビューデータ 楽天GORAのゴルフ場データ,レビューデータ 楽天レシピレシピ情報,レシピ画像 アノテーション付きデータ ニコニコデータセット 国立情報学研究所が株式会社ドワンゴから提供を受けて研究者に提供しているデータセットです。 ニコニコ動画コメント等データ ニコニコ大百科データ リクルートデータセット 国立情報学研究所が株式会社リクルートから提供を受けて研

  • クックパッドのデータを研究者に公開します - クックパッド開発者ブログ


     使...  QA  e.g. 
    クックパッドのデータを研究者に公開します - クックパッド開発者ブログ
    nezuku
    nezuku 2015/02/24
    対スクレーピングの側面もあるのか。たしかに研究向けに正規の方法のアクセスがあれば、そういう手法を用いる相手に対して然るべき対策をより講じれるだろうしね
  • 人口密度と出生率

    2014年10月29日の日経新聞記事(真相深層)少子化対策より交付金? 地方創生「東京集中是正論」の裏側 都市の若者支援急務(有料)に載っている「欧州の地域別人口密度と出生率」というプロットがひどいというこのツイートが話題になっていた。 データについては,微妙に違うようだが,鈴木努先生(@snatool)に教えていただいたものがほぼ同じようである: tgs00100 (Fertility Rate) tgs00024 (Population Density) これら(gunzipで伸長)をRで読み込む。 fertility = read.table("tgs00100.tsv", header=TRUE, as.is=TRUE, na.strings=":") popden = read.table("tgs00024.tsv", header=TRUE, as.is=TRUE, na.s

  • 1