スポンサーリンク

windowsでollamaを使ってみる

ollamaは大規模言語モデルを簡単に使うためのツールで、起動するとサーバーとして常駐する。

手順1.環境変数の設定

モデルデータのダウンロード先を指定する環境変数を設定する。これをしないと何GBあるかわからないようなモデルがCドライブにダウンロードされてしまう。

 

OLLAMA_MODELS=D:\MY_OLLAMA_MODELS_FOLDER

手順2.ダウンロード

以下からダウンロード・インストール。ポータブル版はないらしく、インストール先も選べないらしい。

https://ollama.com/download

手順4.使用例

起動すると常駐する(タスクトレイで確認できる)。

モデルのダウンロード

コマンドプロンプトを開き、以下を実行

ollama pull llama3

モデルの使用

以下のjsonを投げたい。

{
"model":"llama3",
"prompt":"hello",
"stream":false
}"

コマンドプロンプトからcurlの引数で渡す場合、"をエスケープしなければいけないので、以下のように実行。

curl -X POST http://localhost:11434/api/generate -H "Content-Type: application/json" -d "{\"model\":\"llama3\", \"prompt\":\"hello\",\"stream\":false}"

pythonスクリプトで実行する例

import requests

res = requests.post("http://localhost:11434/api/generate", json={
    "model": "llama3",
    "prompt": "こんにちは。お元気ですか?",
    "stream": False
})

print(res.json()["response"])

以下のような出力が得られる

こんにちは!お元気ですね!(That's Japanese for "Hello! I'm fine, thank you!") As a computer program, I don't have physical feelings or emotions, but I'm always happy to chat with you in Japanese if you'd like to practice your language skills. How can I help you today?

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)


この記事のトラックバックURL: