タグ

llamaに関するskypenguinsのブックマーク (4)

  • 【Zephyr 7B Alpha】HuggingFaceがLlama 2を超えるLLMを出したので、比較レビューしてみた | WEEL


    Zephyr 7b AlphaHugging FaceMistral AIMistral 7b10Chat Llama 70B 10 Zephyr 7b Alpha使  AI  Zephyr 7b Alpha Zephyr 7B AlphaHugging FaceMistral AIMistral 7bChat Llama
  • LlamaIndexでAutoGPTQモデルを使う(vicuna-13B-v1.5-GPTQ)


    npakaLlamaIndexAutoGPTQ使2 GPTQLlamaIndex text_splitter  Google Colab T4VRAM 15GB   vicuna-13B, multilingual-e5-baseVRAM使11GB15GB vicuna-7BPCRTX3060 12GB vicuna-7B + multilingual-e5-small8GB8GB llm_model_nam
    LlamaIndexでAutoGPTQモデルを使う(vicuna-13B-v1.5-GPTQ)
  • Metalによるllama2 13B chatの高速実行|JohnK.Happy

    実行環境 Macbook Pro 16 M1 Max 32 core gpunpakaさんの記事ではmetal利用の高速化の影響が確認できなかったとのことでしたが私の環境ではmetalを使った方が高速化したので報告しておきます。 llama.cppのリポジトリはクローン済の前提でバージョン的には下記のコミットのあたりを含む最新バージョンです llama-2-13b-chat.ggmlv3.q4_0.binのWeightはwgetでダウンロード済。 ビルドとかも野良スクリプトでLLAMA_METAL=1で実行しました。 llama.cppクローンとビルドとモデルダウンロード# Clone llama.cpp git clone https://github.com/ggerganov/llama.cpp.git cd llama.cpp # Build it LLAMA_METAL=1 ma

    Metalによるllama2 13B chatの高速実行|JohnK.Happy
  • Llama.cpp で Llama 2 を試す|npaka


    Llama.cppLlama 2 macOS 13.4.1 Windows11 1. Llama.cppLlama.cppCLLMLlama.cppMacBook4bit使LLAMA  C/C++ Apple (ARM NEONAccelerateMetal) x86AVXAVX2AVX512 Mixed F16/F32 4bit5bit8bit BLASOpenBLAS/Apple BLAS/ARM Performance Lib/ATLAS/BLIS/Intel MKL/NVHPC/AC
    Llama.cpp で Llama 2 を試す|npaka
  • 1