Toolsmith ー BLOG

Ollama(温玉のせ)

macOS - Orb Stack Machine で LLMの推論を実行する

使用するツールは "Ollama" です。

>>> {質問してみました}

IMGSS_using_Ollama.jpg

とても使いやすい印象を持ちました。

ただし、母艦のMacは32GB以上のメモリーを実装していないと厳しい!?かもしれません。

===

REPO

===

※「温玉のせ」とは Dockerなどを利用して実行環境を構築する手法のことを指しています。エージェントの造語です。

IMGSS_on_tama_nose_moz.jpg

===

^C

 2024/12 
1234567
891011121314
15161718192021
22232425262728
293031

カテゴリー一覧

ブログ投稿者一覧

年別アーカイブ一覧