728x90
OLLAMA_HOST=0.0.0.0 ollama serve
사전에 위와 같은 명령어로 실행 필요
https://github.com/ollama/ollama/issues/703#issuecomment-1951444576
Allow listening on all local interfaces · Issue #703 · ollama/ollama
This means not loopback but all other private networks Makes it unusable in containers and configs with proxies in front.
github.com
https://github.com/ollama/ollama/blob/main/docs/faq.md#how-do-i-configure-ollama-server
ollama/docs/faq.md at main · ollama/ollama
Get up and running with Llama 3, Mistral, Gemma 2, and other large language models. - ollama/ollama
github.com
* 상시 허용하고 싶으면
vi ~/.zshrc 실행 후 아래 문구 추가
export OLLAMA_HOST=0.0.0.0:11434
source ~/.zshrc 실행해서 적용
* cli에서 실행하려면
ollama serve
ollama run llama3.1:8b
* GUI로 사용
728x90
'기타' 카테고리의 다른 글
langflow 로 RAG 챗봇 만들기 (0) | 2024.10.18 |
---|---|
프로메테우스&그라파나 설치 (0) | 2024.10.15 |
우분투 서버에서 ollama 체험해보기 (0) | 2024.06.26 |
믹스패널 자바스크립트 삽입 (1) | 2024.06.14 |
ec2 ubuntu - vscode 초기 셋팅 (0) | 2024.05.08 |