■ Claude 3に例の「読了目安2時間」記事を解説させてみた Anthropicの先日出たばかりのClaude 3(Opus)が、ChatGPTのGPT-4を超えてきたと聞いて、自分の原稿を解説させてみたところ、確かに革新的な進歩が見られる。もはや内容を「理解」しているようにしか見えない。GPT-4では、昨年11月に試した時には、そうは見えず、優れた文章読解補助ツールという感じでしかなかった。 一昨年のCafe JILIS「高木浩光さんに訊く、個人データ保護の真髄 ——いま解き明かされる半世紀の経緯と混乱」は、発表した当時、長すぎて読めないから誰か要約してという悲鳴があがっていた。その後、ChatGPTの登場で、その要約能力に期待されたが、冒頭のところしか要約してくれなかったり、薄い論点リストが出てくるだけで、その期待に応えられるものではなかった。 もっとも、GPT-4でも、質問力があ
4. ジェネリクス PHP 8.2 では、ジェネリクスのサポートが導入されました。 ジェネリクスを使用すると、コードの再利用性が向上し、型安全性も確保されます。 interface Collection<T> { public function add(T $item): void; public function get(int $index): T; } class StringCollection implements Collection<string> { // ... } $stringCollection = new StringCollection(); $stringCollection->add("Hello"); $stringCollection->add(123); // エラー:string 型が期待されています この注釈、詳細ページには一切記述されていないため
「生成AIと著作権」に関する議論は先日のエントリーでも取り上げたばかりではあるのだが*1、今日の朝刊の「経済教室」に、早稲田大学の上野達弘教授による「著作権法の権利制限規定を”諸悪の根源”であるかの如く批判する近時の見解」を鮮やかなまでに斬る論稿が掲載されているのを拝見し、これぞ真打ち・・・と大いに感服したので、ここで紹介させていただければと思っている。 あえて自分が解説するまでもなく、実に美しく分かりやすい言葉で書かれている論稿ということもあり、本エントリーのほとんどは「引用」に依拠することとなる点は、ご容赦いただければ幸いである。 経済教室「AI規制の論点(上)/「生成」と「学習」区別し対応を」*2 上野教授は、「クリエイターやメディア」が著作権法の「情報解析規定」*3、に懸念を示している、という状況を紹介した上で、情報解析規定の意義について以下のように説明する。 「情報解析規定が対象
What is included in my trial? During your trial you will have complete digital access to FT.com with everything in both of our Standard Digital and Premium Digital packages. Standard Digital includes access to a wealth of global news, analysis and expert opinion. Premium Digital includes access to our premier business column, Lex, as well as 15 curated newsletters covering key business themes with
AI音声を利用したロボコール(自動音声通話)で選挙運動や詐欺を働く事例が相次いだため、連邦取引委員会法(FCC)が「ロボコールのためのAI音声利用は違法」と宣言し、各州にこうした詐欺を取り締まるための権限を与えました。 FCC Makes AI-Generated Voices in Robocalls Illegal | Federal Communications Commission https://www.fcc.gov/document/fcc-makes-ai-generated-voices-robocalls-illegal FCC declares AI-generated voices in robocalls are illegal - CBS News https://www.cbsnews.com/news/fcc-declares-robocalls-illeg
はじめに 新規事業部 生成AIチーム 山本です。 ChatGPT(OpenAI API)をはじめとしたAIの言語モデル(Large Language Model:以下、LLM)を使用して、チャットボットを構築するケースが増えています。通常、LLMが学習したときのデータに含まれている内容以外に関する質問には回答ができません。そのため、例えば社内システムに関するチャットボットを作成しようとしても、素のLLMでは質問に対してわからないという回答や異なる知識に基づいた回答が(当然ながら)得られてしまいます。 この問題を解決する方法として、Retrieval Augmented Generation(以下、RAG)という手法がよく使用されます。RAGでは、ユーザからの質問に回答するために必要そうな内容が書かれた文章を検索し、その文章をLLMへの入力(プロンプト)に付け加えて渡すことで、ユーザが欲しい
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く