タグ

llmに関するebibibiのブックマーク (38)

  • [翻訳]LLMで1年間開発して学んだこと〜LLMプロダクト開発を成功に導くための実践的ガイド〜


     "What Weve Learned From A Year of Building with LLMs"  Eugene Yan  https://applied-llms.org/ Thank you for giving me a permission to translate this wonderful article!  Eugene Yan Bryan Bischof Charles Frye Hamel Husain Jason Liu Shreya Shankar  2024//8 LLM使1LLM
    [翻訳]LLMで1年間開発して学んだこと〜LLMプロダクト開発を成功に導くための実践的ガイド〜
  • 最近ローカルLLMがアツいらしい


    LLMtwitter LLMDLPC AIDLAI OpenAIAnthropicAIAIAI AIChatGPTAI GPTAPI  OpenAIAI GPTAPI
    ebibibi
    ebibibi 2024/05/21
  • GitHub - jina-ai/reader: Convert any URL to an LLM-friendly input with a simple prefix https://r.jina.ai/

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - jina-ai/reader: Convert any URL to an LLM-friendly input with a simple prefix https://r.jina.ai/
    ebibibi
    ebibibi 2024/04/30
    なるほど、サイトをLLMで利用しやすい形に整形してくれるサービスって感じですか。
  • LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti


    LLM使Mac Studio NVIDIALLM使 NVIDIAdisNVIDIAMac Studio LLMLLM LLM80GBGPU
    LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti
    ebibibi
    ebibibi 2024/04/25
       

    LLM

    mac

    ai

  • ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について

    Zero Waste, Radical Magic, and Italian Graft – Quarkus Efficiency Secrets

    ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について
  • 高木浩光@自宅の日記 - 難解な研究成果の普及広報活動は対話型LLMに任せるようになるのかもしれない


     LLM *1 LLMLLMbotbot
    ebibibi
    ebibibi 2024/04/09
    Claude3のコンテキストサイズは流石ですね。
  • 1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も


    1LLM! 70B8.9 !GPU 2024.02.28 Updated by Ryo Shimizu on February 28, 2024, 16:46 pmJST 2 121AI OpenAISoraGoogleGemini1.5AI AlibabaMicrosoftLLM
    1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も
    ebibibi
    ebibibi 2024/02/29
    期待!
  • AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】

    TOPコラム海外最新IT事情AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】 AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】 2024年1月23日 米Metaと米ニューヨーク大学に所属する研究者らが発表した論文「Self-Rewarding Language Models」は、大規模言語モデル(LLM)が自分自身に報酬を与えることで繰り返し学習する「自己報酬型言語モデル」を提案した研究報告である。このモデルは、自身が生成した問題に対する応答に報酬を割り当て、その結果をトレーニングデータとして使用。自己を反復して訓練することで、精度を向上させられる。 keyboard_arrow_down 研究背景 keyboard_arrow_down 研究内容

    AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】
    ebibibi
    ebibibi 2024/01/23
    ここまでしてしまったらあとはもうぐるぐる回すだけなのでは…
  • 松尾研 LLM講座 講義コンテンツ | 東京大学松尾研究室 - Matsuo Lab


    20239~10 LLM  2,0007 GPU使800   : 2024210  1Overview of Language Models LLMLLM 2Prompting and Augmented Language Model LLMAugme
    松尾研 LLM講座 講義コンテンツ | 東京大学松尾研究室 - Matsuo Lab
  • 大規模言語モデル「Phind」がコーディングにおいてGPT-4を上回る

    生成AIを用いた開発者向けの検索エンジン「Phind」が、コーディング能力でOpenAIのGPT-4を上回ったことが明らかになりました。 Phind - AI Search Engine and Pair Programmer https://www.phind.com/blog/phind-model-beats-gpt4-fast Our GPT-4-beating coding model is now the default on https://t.co/epkoFW8Ozz. It's also 5x faster than GPT-4. Learn more in our blog post: https://t.co/PrOFETEbvd— Phind (@phindsearch) PhindはもともとHello Cognition(beta.sayhello.so)として

    大規模言語モデル「Phind」がコーディングにおいてGPT-4を上回る
    ebibibi
    ebibibi 2023/11/02
    目的を特化させればより良いものがより軽く実現できるようになってきてるから、目的別に複数LLMを使い分ける時代がすぐきそう。そしてそれらを統合するLLMもきそう。
  • 社内情報検索システムで用いられるRAGの4つの実装方法


    2    X: _mkazutaka Github: mkazutaka 18  FX Bot 08/30 https://note.com/mkazutaka/n/n9f0e2c4dee96 CONFIDENTIAL INFORMATION: Not for Public Distribution - Do Not Copy 3  EXPLAZA, Inc.    CEO   20200703 
    社内情報検索システムで用いられるRAGの4つの実装方法
    ebibibi
    ebibibi 2023/11/01
    参考になりました。複雑にすればいいってわけじゃないところが難しいですね。
  • LLMが普通のPCでも動く時代、ついに到来

    LLMが普通のPCでも動く時代、ついに到来
    ebibibi
    ebibibi 2023/10/26
    Lenovo Hybrid AI
  • LLMのプロンプト技術まとめ - Qiita


    34() X@fuyu_quant稿  使LM arXiv稿  LLM(GPT-4,Llama2,...)    Zero-shot prompting Few-shot prompting 2021 Generated Knowledge Pr
    LLMのプロンプト技術まとめ - Qiita
  • リポジトリ全体のコーディング作業を一気に自動編集する生成AI「CodePlan」 米Microsoftが開発


    2014WebSeamless Twitter: shiropen2 Microsoft ResearchCodePlan: Repository-level Coding using LLMs and PlanningLLM使 LLMAmazon Code WhispererGitHub CopilotReplit
    リポジトリ全体のコーディング作業を一気に自動編集する生成AI「CodePlan」 米Microsoftが開発
    ebibibi
    ebibibi 2023/10/06
    これは凄いな。LLM自体も進化しつつ、その周辺の応用方法も進化し続けることを考えると本当に凄い…。
  • Stability AI、ノートPCでも動作する大規模言語モデル(LLM)を発表


    Stabilty.AI103PCPCLLMStable LM 3BCC-By-SA 4.0  20234203B7BLLMStable LM 30使707003070
    Stability AI、ノートPCでも動作する大規模言語モデル(LLM)を発表
    ebibibi
    ebibibi 2023/10/04
    ローカルで動く軽量なLLMの選択肢もどんどん広がってますね。
  • Azure OpenAI Service リファレンスアーキテクチャからみる本番システムレベルの LLM アプリに必要な検討項目の解説 / From Azure OpenAI Reference Architecture to Production-Ready LLM Apps #serverlessdays #serverlesstokyo

    ServerlessDays Tokyo 2023 で Azure OpenAI Service リファレンスアーキテクチャからみる、番システムレベルの LLM アプリに必要な検討項目の解説 / From Azure OpenAI Reference Architecture to Production-Ready LLM Apps というタイトルで紹介しました HP: https://tokyo.serverlessdays.io/ Ticket: https://serverless.connpass.com/event/290640/ #serverlessdays #serverlesstokyo

    Azure OpenAI Service リファレンスアーキテクチャからみる本番システムレベルの LLM アプリに必要な検討項目の解説 / From Azure OpenAI Reference Architecture to Production-Ready LLM Apps #serverlessdays #serverlesstokyo
  • GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ


        Fine-tuning  Data  Fine-tuning      DROBE   LLM 使 GPT-3.5-turbo  Fine-tuning   GPT-4 使 GPT-3.5-turbo  Fine-tuning  GPT-4  GPT-4 使使token   LLM OpenAI 20239GPT-4  GPT-3.5-
    GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ
  • LLMのファインチューニング で 何ができて 何ができないのか|npaka

    LLMのファインチューニングで何ができて、何ができないのかまとめました。 1. LLMのファインチューニングLLMのファインチューニングの目的は、「特定のアプリケーションのニーズとデータに基づいて、モデルの出力の品質を向上させること」にあります。 OpenAIのドキュメントには、次のように記述されています。 ファインチューニングは、プロンプトに収まるよりも多くの例で学習することで、Few-Shot学習を改善します。一度モデルをファインチューニングすれば、プロンプトにそれほど多くの例を提供する必要がなくなります。これにより、コストを削減し、低レイテンシのリクエストを可能にします。 しかし実際には、それよりもかなり複雑です。 LLMには「大量のデータを投げれば自動的に解決する」ような創発的な特性があるため、ファインチューニングもそのように機能すると人々は考えていますが、必ずしもそうではありませ

    LLMのファインチューニング で 何ができて 何ができないのか|npaka
  • AIはどのような仕事ができるようになったのか?ChatGPTで変わる「優秀な人材」


    3  LassoSVMRandomForestLightGBM
    AIはどのような仕事ができるようになったのか?ChatGPTで変わる「優秀な人材」
    ebibibi
    ebibibi 2023/08/17
    この記事の分類の仕方、いいですね。
  • NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発


    NECGenerative AI(AI)(Large Language ModelLLM) LLMNEC(1)130LLM(2) NECLLM ChatGPTAI
    NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発
    ebibibi
    ebibibi 2023/07/06
    日本人が日本語でつかう、ローカルで動かす…というようなケースでは結構よい選択肢なのではという気がしますね。