Kubernetes에 Ollama(LLM REST API)를 배포배경비즈니스와 실제 시나리오에서 서비스의 확장성과 고가용성은 매우 중요하다. Kubernetes는 이러한 작업을 조율하는 도구로 각광받고 있다. 여러 모델을 선택할 수 있는 LLM을 REST API로 배포하고 이를 확장할 수 있다면 어떨까? 하는 생각에 시도해보았다.환경Firebat AK2 PlusCPU : Intel N100RAM : 16GBstorage : 512GBOS : Rocky Linux 9배포namespaceollama_ns.yamlapiVersion: v1kind: Namespacemetadata: name: ollama$ kubectl apply -f ollama_ns.yamldeploymentollama_deploy.ya..