![Google Apps Scriptで特定のGmail新着メールをLineに通知 – FlatKids](https://cdn-ak-scissors.b.st-hatena.com/image/square/50ddf778a00cee2391f768fea72e111d71813b26/height=288;version=1;width=512/https%3A%2F%2Fflat-kids.net%2Fwp%2Fwp-content%2Fuploads%2F2020%2F03%2Feyecatch20200328.png)
自然言語処理において、テキストをその意味を考慮しつつ固定長のベクトルに変換する埋め込みモデルは重要です。文の意味をよく表現したベクトルを作ることができれば、テキスト分類や情報検索、文類似度など、さまざまなタスクで役立ちます。本記事では、Googleが開発した多言語の埋め込みモデル「LaBSE」を使って、テキスト分類をする方法を紹介します。単なるテキスト分類では面白くないため、学習には英語のデータセットを使い、評価には日本語とフランス語のデータセットを使います。 記事では要点だけを紹介するので、コードについては以下のノートブックを参照してください。 Text Classification with LaBSE LaBSE LaBSEは、Googleが「Language-agnostic BERT Sentence Embedding」という論文で提案したモデルです。109の言語に対応しており
株式会社セブン-イレブン・ジャパン:これからの IT 戦略を支えるデジタルデータ基盤「セブンセントラル」を Google Cloud 上に構築 日本全国に多数の店舗を展開する大手コンビニエンスストア チェーン、セブン-イレブン・ジャパン。その躍進の背景には他社に先駆けて投資、展開してきた積極的な IT 活用があると言われています。しかし、2000 年代以降のいわゆる IT ジャイアントの台頭や、スマートフォンの普及に伴う社会全体の急速なデジタル化に比して、自社の複雑化したシステムの構造がレガシー化し、抜本的な改革が求められるように。ここでは、そんな同社が将来に向けたデジタル トランスフォーメーション(DX)をはじめとする IT 戦略を支えるため、2020 年 9 月から稼働開始したデジタルデータ活用基盤「セブンセントラル」について、その開発を担当した IT 部門の責任者とエンジニアの皆さん
テレワークが外出自粛による一時的なものだったのかどうか──。2020 年 4 月の新型コロナウイルス感染症に関する緊急事態宣言は、結果として多くの人がテレワークを試す機会となりました。そんなテレワークが、人々にどのような気づきを与え、暮らしをどう変えたのかを過去 4 回にわたってまとめてきました。そしてテレワークが外出自粛による一時的なものだったのか、それとも人々のその後の意識や行動にも影響を与えたのかを確認するため、Google は 7 月初旬から中旬に追跡調査(*1)を実施。前回調査の回答者 3000 人のうち、テレワーク経験者の中から、約 2000 人が回答しました。 5 月末に緊急事態宣言が解除され、その後、各地で感染がまた少しずつ増え始めていた7月調査時点までの約 1 カ月間における働き方や心境の変化について聞いています。連載最終回の今回は、この追跡調査の結果を踏まえて、これから
GMOアドマーケティングのT.Oです。 BigQueryの「クエリのスケジュール」機能を使ってみました。この機能を使うとプログラムを書かずにクエリを定期的に実行して、結果をテーブルに書き込むことができるので便利です。ここでは利用手順をご紹介します。 0.前提 クエリのスケジュールを利用するためには、ユーザーに以下の権限が必要です。 *)権限が不足している場合、利用できませんので管理者の方に権限の付与を依頼してください。 bigquery.jobs.createまたはbigquery.transfers.update … 転送を更新するための権限です bigquery.datasets.update … データセットのメタデータを更新するための権限です 1.クエリの作成 定期実行するためのクエリを「クエリエディタ」に記述します。以下はクエリの例です。 *)「クエリのスケジュール」を実行する前
Googleが自然言語モデル「BERT」における高精度な多言語埋め込みを可能にする「Language-agnostic BERT sentence embedding model(LaBSE)」を発表しました。LaBSEは109もの言語を事前学習しており、学習データにない言語でも高精度な処理を行うことが可能です。 Google AI Blog: Language-Agnostic BERT Sentence Embedding https://ai.googleblog.com/2020/08/language-agnostic-bert-sentence.html 自然言語モデルにおいては、文章をベクトル空間に展開する「埋め込み」を行う必要があり、多言語を扱う言語モデルでは、異なる言語による文章を同じベクトル空間に埋め込む必要があります。FacebookのLASERやm~USEといった多
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く