やりたいこと
elizaのチュートリアルでOpenAIではなく、Llamaを使って動かしたい。
補足
elizaのチュートリアルは大きく2つある。
「Starterを使うやり方」だと、OpenAIを必須で使う仕様になっているため、OpenAIのAPIの利用&クレジットカードによる予算追加が必要になる。
一方で、「eliza本体を使うやり方」だとModelを自由に選択できるため、Llamaを指定することができる。
設定
.env
XAI_MODEL=llama3.2
characters/trump.character.json
"modelProvider": "llama_local",
実行
1つ目のターミナルで以下を実行。
% pnpm start --character="characters/trump.character.json"
2つ目のターミナルを新規に立ち上げて以下を実行。
% pnpm start:client
起動完了したら、以下にアクセスしてChatをするだけ。そうすると、1つ目のターミナルにLlamaが動いて回答を生成してくれる。
http://localhost:5173/