![有坂フミヤさんのプロフィール|【MENTA】No1.メンターサービスでプロに直接相談しよう!](https://cdn-ak-scissors.b.st-hatena.com/image/square/0bbc6a8ff7e95e38453e097f800c936b27aff122/height=288;version=1;width=512/https%3A%2F%2Fimg.menta.work%2F200%2Ficon%2F6264cbda209fa.jpg)
「jseval」を使用してYouTubeの動画再生数データを取得、スクレイピングするプログラムを書いてみます。 dockerをインストールして、Linux環境下で以下のように実行。 docker run --rm jseval \ --url "https://www.youtube.com/watch?v=kJQP7kiw5Fk" \ --evaluate "$(cat <<- EOT (async function(){ function waitForElm(selector) { // wait for element return new Promise(resolve => { if (document.querySelector(selector)) { return resolve(document.querySelector(selector)); } const obs
こんにちは Ryobot (りょぼっと) です. 本紙は RNN や CNN を使わず Attention のみ使用したニューラル機械翻訳 Transformer を提案している. わずかな訓練で圧倒的な State-of-the-Art を達成し,華麗にタイトル回収した. また注意を非常にシンプルな数式に一般化したうえで,加法注意・内積注意・ソースターゲット注意・自己注意に分類した.このうち自己注意はかなり汎用的かつ強力な手法であり他のあらゆるニューラルネットに転用できる. WMT'14 の BLEU スコアは英仏: 41.0, 英独: 28.4 で第 1 位 Attention Is All You Need [Łukasz Kaiser et al., arXiv, 2017/06] Transformer: A Novel Neural Network Architecture f
フレームワークに頼らずVulkanで畳み込みニューラルネットワークを実装する方法を解説します これは2019年7月20日に行われた 第15回 カーネル/VM探検隊 での発表資料です サンプルコード: https://github.com/Fadis/kernelvm_20190720_samples
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く