Toolsmith ー BLOG

Ollama(温玉のせ)

macOS - Orb Stack Machine で LLMの推論を実行する

使用するツールは "Ollama" です。

>>> {質問してみました}

IMGSS_using_Ollama.jpg

とても使いやすい印象を持ちました。

ただし、母艦のMacは32GB以上のメモリーを実装していないと厳しい!?かもしれません。

===

REPO

===

※「温玉のせ」とは Dockerなどを利用して実行環境を構築する手法のことを指しています。エージェントの造語です。

IMGSS_on_tama_nose_moz.jpg

===

^C

 2025/5 
Sun Mon Tue Wed Thu Fri Sat
    123
45678910
11121314151617
18192021222324
25262728293031

カテゴリー一覧

ブログ投稿者一覧

年別アーカイブ一覧