無料で始める!CALM2-7B-Chatで日本語AI革命

無料で始める!CALM2-7B-Chatで日本語AI革命 ツール

「ローカルPCでChatGPTのようなAIチャットを動かしたい」
「商用利用のできる日本語LLMを探している」

このような場合には、CALM2-7B-Chatがオススメです。
この記事では、CALM2-7B-Chatについて解説しています。

本記事の内容

  • CALM2-7B-Chatとは?
  • CALM2-7B-Chatの利用方法
  • CALM2-7B-Chatの動作確認

それでは、上記に沿って解説していきます。

CALM2-7B-Chatとは?

独自の日本語LLM(大規模言語モデル)のバージョン2を一般公開 ―32,000トークン対応の商用利用可能なチャットモデルを提供―
サイバーエージェントの新たな取り組みやサービス情報など、当社のニュースリリースを掲載しています。

株式会社サイバーエージェントは、以下の日本語LLMを公開しました。

  • CyberAgentLM2-7B(CALM2-7B)
  • CyberAgentLM2-7B-Chat(CALM2-7B-Chat)

CALM2-7Bをチャット形式でチューニングしたのが、CALM2-7B-Chatとなります。
ChatGPTの成功を見ればわかるように、LLMはAIチャットでの需要が高いです。

Hugging Faceにおけるダウンロード数は、次のような結果となっています。

公開されて22時間ですが、10倍以上の差があることを確認できます。
そんな人気のCALM2-7B-Chatには、次のような特徴が挙げられます。

  • 32,000トークン(日本語約50,000文字)対応
  • 日本語特化学習
  • 商用利用可(Apache License 2.0)
  • チャットボット最適化

やはり、商用利用可能な日本語LLMというのはインパクトがあります。
CALM2-7B-Chatを使って、誰でもビジネスを展開できるということですからね。

以上、CALM2-7B-Chatについて説明しました。
次は、CALM2-7B-Chatの利用方法を説明します。

CALM2-7B-Chatの利用方法

すでにGUIで動かせる環境が公開されています。

やはり、CALM2-7B-Chatはこのようなチャットでこそ効果的です。
今回は、上記アプリをローカル環境で動くようにしましょう。

CALM2-7B-ChatをローカルPCで動かしたら、速過ぎて文字が未来から来たみたい!

ローカルPCで日本語LLMがこの速度で動きます。
それもちゃんとした日本語です。
これは、日本語AI革命と言えるのではないでしょうか。

この革命を試す方法を以下で説明します。
まずは、Python仮想を用意しましょう。

次に、以下のページにアクセスします。
https://huggingface.co/spaces/hayas/CALM2-7B-chat

上記ページ上で「Clone repository」をクリック。

そうすると、次のような画面が表示されます。

ここから、次のgitコマンドをコピー。

git clone https://huggingface.co/spaces/hayas/CALM2-7B-chat

このコマンドを実行して完了したら、リポジトリルートに移動します。

cd CALM2-7B-chat

以下のファイルを確認できるはずです。

requirements.txt

accelerate==0.24.1
bitsandbytes==0.41.1
gradio==4.0.2
protobuf==3.20.3
scipy==1.11.3
sentencepiece==0.1.99
spaces==0.18.0
torch==2.0.0
transformers==4.35.0

ここでは、以下のように修正します。

修正後requirements.txt

accelerate
bitsandbytes
gradio
protobuf 
scipy
sentencepiece
spaces
#torch 
transformers

PyTorchに関しては、各自の環境に合ったモノをインストールしましょう。
もちろん、GPU版であることは必須です。

今回は、以下コマンドでインストール。

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

PyTorchのインストールが完了したら、一括でインストールを進めます。

pip install -r requirements.txt

以上、CALM2-7B-Chatの利用方法を説明しました。
次は、CALM2-7B-Chatの動作確認を説明します。

CALM2-7B-Chatの動作確認

GUIアプリを立ち上げるには、リポジトリルート上で以下を実行します。

python app.py

Windowsの場合、次のエラーがでると思います。

ValueError: cannot find context for 'fork'

これは、app.pyがHugging FaceのSpacesで動くためのコードになっているからです。
そのため、Spaces固有の部分を除去します。

全部で3か所を無効(コメントアウトでOK)にします。
そうすれば、エラーが出なくなります。

app.pyが動き出すと、初回時はモデルのダウンロードが始まります。
モデルの容量は、以下。

そこそこあるので、しばらく待つと以下のように表示されます。

Running on local URL:  http://127.0.0.1:7860

To create a public link, set `share=True` in `launch()`.

このURLにブラウザでアクセスすると、後はChatGPTのように利用できます。

なお、必要なGPUは15GB程度だと思われます。
以下がGUIアプリの起動前の状態です。

起動後には、次のようになっています。

GeForce RTX 3090やGeForce RTX 4090なら、余裕で動かせます。
実際、GeForce RTX 3090でもメチャクチャ速いです。

以上、CALM2-7B-Chatの動作確認を説明しました。

タイトルとURLをコピーしました