Arduino向けエアバンド(航空無線)受信シールド「SCARP」がKickstarterに登場し、人気を集めている。 SCARPは、Arduinoに実装したSDR(ソフトウェアラジオ)でエアバンドを受信するArduino向け無線シールドだ。周波数合わせやスケルチレベルの調整をしなくても、航空機と地上との交信を簡単に聞くことができる。RFボード、I/Oボード、Arduino Nano、LCDディスプレイ(170×320)をスタックできるよう、小型化したデザインとなっている。 RFボードにはヘッドホンジャックとオーディオアンプ、音量コントロールを、I/Oボードにはタクタイルスイッチを搭載する。電源とスピーカー、アンテナは、自分で用意する必要がある。 航空無線のチャネル間隔は25kHzとナロー化された8.33kHzに対応し、1Hzレベルの分解能でチューニングが可能。受信のずれはオシレーターの調
印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます NTTデータは6月27日、NTTが開発する大規模言語モデル(LLM)「tsuzumi」を「Microsoft Azure」で11月以降に提供すると発表した。「Azure AI Studio」を利用してtsuzumiのチューニングやビジネスアプリケーション開発が可能になるとしている。 tsuzumiは、NTT研究所が40年以上にわたって蓄積した自然言語処理技術をベースに開発され、高性能ながらパラメーターサイズが6億~70億と海外のLLMより軽量な点が特徴。少ないリソースでチューニングが行え、企業や組織の業界、業務に特化型した生成AIとして利用することもできる。 tsuzumiの商用提供は3月に始まっているが、ユーザー側でtsuzumiを利
こんにちわ。 GMO NIKKOのT.Mです。 Google AI Studioとは Google AI Studioは、GoogleのAIモデルであるGeminiを使ってプロンプトの検証やモデルのチューニングなどが行える開発ツールです。Gemini APIのAPIキーの取得もできます。 Google AI Studioの始め方 Googleアカウントがあれば始められます。 企業などでGoogle Workspaceを使っている場合は、「早期アクセスアプリ」を有効にする必要がありました。システム管理者に相談してみましょう。 Google AI Studioの起動 Google AI Studioの公式ページから「Google AI Studioにログイン」ボタンを押せば、画面が開きます。 ログインするとGoogle AI Studioが開きます。 クイックスタート クイックスタートのドキュ
エンジニア何年もやって、ちゃんとDB学んでいなかった悔しさがずっとあったので、この間は色々とコースなり、本なりを探って勉強した。 DBMSは非常に大きなトピックで自分もまだまだほんの少ししか触れていなかったが、この記事では、とりあえずはインデックスからスタートしてようと思う。 (結構長くなってしまったので、TL;DRとして節ごとにまとめを置いています) DBMSのアーキテクチャー概要 データベースによって実装が異なるが、一般的に含まれるDBMSの構成コンポーネントとして、次のように挙げられる[1]。 DBMSはサーバークライエントのモデルを使っている。クライエントはクエリーを構成してトランスポートのレイヤーを経てサーバー側に送られる。クエリーに対してサーバー側が解析や最適化して、適切な実行プランを出す。実行プランは実行エンジンに渡されて、ローカルとリモートの実行結果を集計する。リモートとい
こんにちは。 Acroquestのデータサイエンスチーム「YAMALEX」に所属する@shin0higuchiです😊 YAMALEXチームでは、コンペティションへの参加や自社製品開発、技術研究などに日々取り組んでいます。 はじめに Elasticのマネージドサービスである Elasticsearch Service (Elastic Cloud) にサーバレスが登場しました。 今回はその使い方や特徴などについて紹介し、どういったシーンでの利用に適しているのか考察してみました。 ※記事中の情報は執筆時点のものであり、今後変更となる可能性があります。利用する際は最新の情報をご確認ください。 Elastic Cloud Serverless とは? 従来のElastic Cloudは、オンプレミスでElasticsearchを運用するのに比べ管理コストを大きく削減することができる点や、柔軟にス
森 大翔と崎山蒼志が、「本当に“ヤバい”凄腕日本人ギタリスト」を紹介した。 2人が登場したのは、J-WAVEで放送中の番組『SONAR MUSIC』(ナビゲーター:あっこゴリラ)。オンエアは6月20日(木)。 【SONAR MUSICは番組公式LINEでも情報発信中】 「新世代が幕開けていった」と感じるギタリスト いまチェックしておきたい、凄腕の日本人ギタリストは誰なのだろうか? 若手の実力派ギタリストである森 大翔と崎山蒼志が、“40歳以下のギタリスト”に限定して語った。 森:言葉では言い表せない感じなんですけど、初めて聴いたときの衝撃は本当に覚えていて。この曲だったんですけど、ギター1本で宇宙を作っているという(感じがする)。6、7年前から大好きでした。ちょうどギターのムーブメントがSNS中心になってきたときに突然現れたギタリストで、Ichikaさんの登場から新世代が幕開けていったんじ
こんにちは、Webサイト作ってますか? Webサイトを作っていると、Lighthouseスコアを上げるために画像のサイズやフォーマットにも気を配りたくなりますよね。 筆者は画像のフォーマットにはあまり頓着してこなかったので、「フラットな画像ならPNG」「込み入ったイラストはJPEG」「なんかWebPとかいうのもあるらしいけどよくわからん」くらいの解像度で適当に使っていました。しかし、最近の開発でLighthouseスコアのチューニングをしてみたところ、色々新しい知見が溜まったので、自分用の備忘録として残しておこうと思います。 3行まとめ ちゃんと複数の解像度の画像を用意しようね WebPやAVIFといった次世代フォーマットも使ってみようね <picture> と <source> は便利 画像のサイズを複数用意する 表示するディスプレイの解像度に合わせて、表示する画像の大きさを調整すること
加熱するLLM開発競争に冷や水、オープンモデルの組み合わせだけでGPT-4o越えの事実 2024.06.21 Updated by Ryo Shimizu on June 21, 2024, 18:19 pm JST 世界中の企業や政府が狂ったようにNVIDIAのGPUを買い漁る流れはそろそろ潮時かもしれない。 いくつかの興味深い事象が起きているからだ。 昨日発表されたKarakuri社のLLM、「KARAKURI LM 8x7B Instruct v0.1」は、非常に高性能な日本語LLMだ。Karakuri社は今年の一月にも非常に高性能な70Bモデルを引っ提げて業界に旋風を巻き起こした。この最新のLLNは、日本語向けオープンLLMとしては初の「命令実行」チューニングを施されている。それだけでなく、RAGと呼ばれる、複数の知識を組み合わせてより正解に近い答えを導く技術や、Function
1961年の登場以来、世界中で長きにわたり愛され続けているギブソンSG。その逸話や魅力を、ギタリストとの物語をとおしてお届けする“ロックの歴史を作り上げた、伝説のSG特集”。第4回は、ブラック・サバスのトニー・アイオミ。彼とギブソンSG&SGタイプの物語をお届けしよう。 文=細川真平 Photo by Ian Dickson/Redferns 偶然手に入れることが出来た左利き用のSGスペシャル ロックの楽曲において、リフの重要性は言うまでもない。リフこそがロックをロックたらしめていると言っても過言ではないほどだ。 だからこそ、ロックの名曲と名リフは切っても切れない関係性があるが、ブラック・サバスの楽曲群は、レッド・ツェッペリンと並ぶほどに名リフの宝庫と言っていいだろう。 リフ・メーカーとしてのジミー・ペイジとトニー・アイオミを大雑把に比較すると、ペイジのリフには躍動感があり、アイオミのリフ
お久しぶりです、ANDPADボードの tomtwinkle です。 この記事はGoの go:linkname 騒動は 6/18に行われた Go Bash で話した内容を要約したものです。 そもそも go:linkname とは何かといえば internal packageやprivate var/funcなど普通はアクセスできないオブジェクトシンボルをエイリアス出来るようCompilerに指示して、アクセス可能にするcompiler directiveです。 go:linkname はprivateな変数へアクセス可能な便利なものでしたが unsafe packageのimportを必須とする通り、せっかく互換性や安全を考慮して作られているGoプログラムを簡単に破壊できる諸刃の剣でした。 詳細は発表スライドを見てください。 go:linkname 禁止騒動 Go 1.23 のリリースまで2
背景 こんにちは!Hanoi Dev Centerでバックエンドエンジニアをしているminhquangです。この記事では、私がAI事業本部のある新規プロダクト開発に参画した際に経験したパフォーマンスチューニングについて話したいと思います。 皆さんはサービスのローンチ(サービスを世の中に初めて出すリリース)をやったことがありますか。サービスローンチするときに、リクエストのスパイクや、ユーザー数の増加によるサーバー負荷増加など、様々な未知な課題が存在します。 私のチームでは数百万人の利用が見込まれるサービスにおいて、18000RPSを実現するべく負荷試験とパフォーマンスチューニングを実施しました。 本記事では、上記のサービス要件を満たすために私たちが取り組んだ負荷試験やパフォーマンスチューニングについて説明しつつ、これらの経験から得られた学びを共有したいと思います。 前提 技術スタック サーバ
「Next.jsで理解するSSRとクライアントルーティングの違い」という名目で社内にて簡単に勉強会を行いました。本記事は、その内容を適宜編集して公開するものです。 TL;DR 以下の要約を読んで、「なんだその話か」って思った方は引き返していただいて大丈夫です。逆に「えっそうなの・・・?」と思った方は、ぜひ読んでください! Next.jsアプリケーションにおいて、/hogeと/fugaというページがあり、それぞれgetServerSideProps()が定義されているとします 最初ブラウザで/hogeを開いたとき、Next.jsアプリケーションはブラウザから/hogeへのGETリクエストを受け取り、getServerSideProps()を実行します 次に/hogeから/fugaへrouter.pushで遷移すると、Next.jsアプリケーションはブラウザから/fugaへのGETリクエストを
公開日 2024/06/18更新日 2024/06/18身近なBtoCサービスを支えるアーキテクチャ大解剖 技術選定のポイントと今後の展望 多くのIT企業では、ユーザーに対してより高品質で安定した体験を提供するために、システムアーキテクチャを進化させ続けています。 本特集では、日常生活の中で多くのユーザーに利用されているサービスのアーキテクチャ設計に携わるエンジニアの方々から、技術選定の背景や意図、そして現在のアーキテクチャの課題から未来への展望まで、詳しく伺いました。この記事を通じて、各企業のエンジニアたちがどのように技術的な課題を克服し、システムの柔軟性と効率を高めているのか、知見を得ていただければ幸いです。 ※ご紹介は企業名のアルファベット順となっております アソビュー株式会社 アソビュー株式会社では「遊び」という領域に対し、マーケットプレイス型EC「アソビュー!」やD2C型SaaS
目次 目次 はじめに そもそもシステム運用改善チームとは何か? なぜアプリAPIのパフォーマンス改善が必要になったのか? どうやって改善箇所を見つけるのか? 分散トレーシングを使って、店舗詳細APIを細かく分析する 計測結果の見方 計測結果から分かったこと 計測結果から見つけたポイントに改善を実施していく コースに紐づくクーポンの取得 口コミを取得する処理と公開画像数のカウント ユーザーごとの公開口コミ投稿数の合計数カウント 全体での改善効果はどうだったか? パフォーマンス改善の影響 ユーザー体験が向上した 今後の食べログ成長に備えたシステム上の余裕ができた 食べログの分散トレーシングを使って改善を実施してみてよかったこと おわりに はじめに こんにちは。食べログ開発本部 ウェブ開発1部 システム運用改善チームの @4palace です。 今回は、私の所属するシステム運用改善チームが食べロ
Amazon AthenaとAWS Step Functionsで作る簡単なETLの仕組みのメリットと、さらに必要とされる要件に対してなにが求められるのかについて発表しました。 データアナリティクス事業本部 インテグレーション部 機械学習チームの鈴木です。 2024年6月12日にクラスメソッドの大阪オフィスで開催された勉強会Midosuji Tech #1で『AthenaとStep Functionsで簡単ETLオーケストレーション』というタイトルで話しましたので資料を公開します。 当日は淀屋橋の大阪オフィスでオンサイトでイベントが開催されました。発表後にはワイワイガヤガヤタイムということで、参加者の方も交えたディスカッションが大変盛り上がりました。 発表資料 ポイント Step FunctionsのAPI統合で、S3バケットに配置したSQLファイルをステートマシンから読み込み、Athen
1. 記事の狙いと想定読者層研究を進めるうえでのTIPSをまとめていくシリーズです。大学や大学院等における研究活動に関して、お読みいただいている皆さまになにかしら示唆をご提供できればという思いで書いています。 読者層としては、大学院等の研究機関で研究活動に取り組む方々を想定しています。今回テーマとして取り上げるのは、「避けるべき論文」、すなわちハゲタカジャーナルに掲載されている論文の見分け方。 2. 「避けるべき論文」とは?なぜ避ける必要があるのか?このテーマで記事を書こうと思った背景がいくつかありまして、最大の要因はいわゆるハゲタカジャーナル(英語だと、Predatory Journal。ハゲタカだからってVulture journalとは言いません)の氾濫猖獗。以前、別記事「先行研究レビューの実作業のやりかた」でも触れましたが、世の中には一見学術誌の体裁をとりつつ、じつは粗悪な著作物で
はじめに Elasticsearchではv8.12からLearning To Rankという機能が実装されました。これまでにもコミュニティープラグインでは同様のことが実現できていましたが、今回Elasticが公式にサポートしましたので概要について紹介したいと思います。 検索の良し悪しは主に以下の観点で評価できます。 適合率 / Precision : どれだけノイズが少ないか 再現率 / Recall : どれだけもれなく検索できているか Learning To Rank(LTR)はこのうち適合率 / Precisionを、事前に用意したデータを学習することによって向上させるための仕組みです。 この機能はElasticsearchの外部で機械学習によって作成したモデルを使って実現します。流れとしてはData Frame Analyticsやベクトル検索で実現しているのと同様、Pythonで
サイバーエージェントは6月13日、75億パラメータの日本語大規模視覚言語モデル(Vision Language Model、VLM)を一般公開した。Hugging Faceで商用利用可能なAIモデルや、研究用途でのみ使えるデモを公開中だ。 VLMとは、画像とテキストを複合して扱えるマルチモーダルなAIモデル。画像とテキストを理解できることで「この写真に写っているものは何ですか?」のような質問にも対応できる。米OpenAIの「GPT-4o」などが代表的なモデルで、近年では画像を扱えるAIモデルの進化が急速に進んでいる。 一方で「VLMのほとんどは英語のデータを中心に学習しており、日本文化の理解や日本語での会話に強いVLMは少ない状況」とサイバーエージェントは説明する。このような背景から同社は日本語に強いVLMを公開。日本語大規模言語モデルで合成して作ったデータセットをメインに学習させたという
株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)は、75億パラメータの日本語VLM(Vision Language Model、大規模視覚言語モデル)を公開したことをお知らせいたします。 近年、OpenAI社が開発した「GPT-4o」※1 を始めとした画像も扱えるLLMが急速な進化を遂げており、世界中のあらゆる業界・ビジネスにおいて活用が進んでいます。 当社においてもデジタル広告におけるクリエイティブ制作において、2023年5月に画像を考慮した「広告コピー自動生成機能」を実装するなど、画像とテキストの複合領域での研究開発および活用に取り組んでおります。 一方、既存の公開されているVLMのほとんどは英語を中心に学習されているため、日本文化の理解や日本語での会話に強いVLMは少ない状況です。 こうした背景のもと、当社は日本語VLMの開
PKSHA製基盤モデルの特徴とは? 「Transformer」ではなく「RetNet」だから実現できた“3つの強み” 生成AIブームの今、注目のキーワードが「基盤モデル」だ。大量のデータを事前学習したAIモデルのことで、少しのチューニングを施せば、さまざまなタスクに対応できる。米OpenAIの「GPT-4」といった生成AIも包含する概念だ。 さまざまな企業が生成AIを使った業務効率化を試行錯誤する中、各AIベンダーたちの間では基盤モデルの開発競争が激化している。そこでこの特集では、基盤モデルを開発するAIベンダーに一問一答メールインタビューを実施。開発状況や独自の強みなどを探っていく。 今回は、日本マイクロソフトの技術支援の元で、独自の基盤モデルを開発する、AIベンチャー・PKSHA Technology(東京都文京区)に話を聞いた。 PKSHA Technologyの基盤モデルの特徴や強
AI開発企業が抱えるもうひとつの課題は、AI開発投資が極端なまでに大規模化しつつあることだ。OpenAIやマイクロソフトのようなAI開発企業は、今後数年の間に、AI関連の開発投資を「1000億ドル(約15兆6000億円)」あるいは「7兆ドル(約1092兆円)」と極端な規模へと拡大する野望を抱いている。現状のAIの100倍、あるいはそれ以上の規模のAIを作り出すためだ。 大規模投資計画は現状の100倍以上 2024年2月、AI開発企業OpenAIのCEOであるサム・アルトマンが、AI向け半導体の増産とAIデータセンター増強のために実に5兆〜7兆ドル(780兆〜1092兆円相当)の資金を集めていると経済紙ウォールストリート・ジャーナルが報じた。アラブ首長国連邦(UAE)政府、ソフトバンクの孫正義CEO、台湾の半導体メーカーTSMCと話し合いをしているという。 この7兆ドルという数字は誇大妄想と
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く