제가 구축한 인프라를 소개합니다!AI ServerGPU: RTX 4070 Ti Super주요 용도: 인공지능 모델 학습 및 파인튜닝서비스:Hugging Face AutoTrain (LLM 모델 파인튜닝 및 관리)Python 스크립트 실행 및 자동화Nginx Proxy ManagerWeb Reverse Proxy 도구Nginx 사용클라이언트의 요청을 직접 백엔드 서버로 전달하지 않고, 중간에 위치한 서버가 대신 요청을 받아 처리하는 방식의 프록시 서버, 사용자가 요청을 보내면 리버스 프록시가 이를 받아 내부의 실제 서버로 전달하고, 다시 응답을 받아 클라이언트에게 돌려준다. 이 방식은 보통 로드 밸런싱, 보안 강화, SSL 종료 처리, 캐싱, URL 기반 라우팅 등의 목적으로 사용됩니다. 예를 들어 여러 ..
클라우드에 종속되지 않고 강력한 AI 모델을 로컬에서 운영할 수 있다면 어떨까요? Ollama가 제시하는 혁신적인 로컬 AI 솔루션의 세계로 들어가봅시다. Ollama는 개인 연구자부터 기업의 개발팀까지 다양한 사용자들이 클라우드 의존 없이 AI 기술을 활용할 수 있게 해주는 오픈소스 플랫폼입니다. 이 플랫폼의 핵심은 LLaMA, Mistral, DeepSeek 등 최신 대규모 언어 모델(LLM)을 로컬 환경에서 서버 형태로 실행할 수 있다는 점입니다. Ollama의 주요 특징은 다음과 같습니다:로컬 모델 실행: 클라우드 서비스에 의존하지 않고 자체 하드웨어에서 AI 모델을 구동할 수 있습니다.다양한 모델 지원: GitHub, HuggingFace 등 다양한 소스에서 모델을 로드하여 사용할 수 있습니다...