LLaMA2の量子化モデルを動かすだけ

リポジトリ

Sep 16, 2023

Large Language Models

1. どんなもの??

2. 使い方

  • xformersのバージョン制約が厳しいので,pytorchのバージョンは気をつけないとダメ
  • ↑の環境が立てば,4bit量子化モデルの読み込みはAutoModelForCasusalLM.from_pretrainedの引数でload_in_4bit=Trueにするだけ

  • 3. 結果

    4. 余談

  • ELYZAの13B,70Bが出たら触ってみたい
  • こういうテストで使いたいだけのプロンプトは何にすればよいのか,逆に悩む
  • Back