이 다이어그램은 외부 API(OpenAI, Anthropic 등)에 비용을 지불하지 않고, 로컬 환경과 오픈소스, 그리고 클라우드의 무료(Free-tier) 서비스만을 조합하여 상용 수준의 AI 서비스를 구축하는 아키텍처를 보여줍니다.
각 계층(Layer)별로 어떤 역할을 하며 어떤 도구를 사용하는지 분석해 드립니다.
역할: 사용자가 입력(텍스트, 클릭 등)을 하고 결과를 보는 화면입니다.
사용 도구:
Next.js (가장 인기 있는 웹 프레임워크)
Streamlit (파이썬으로 매우 빠르게 AI용 웹 화면을 만드는 도구)
Vercel (프론트엔드를 무료로 인터넷에 올려주는 호스팅 서비스)
역할: 시스템의 **'두뇌 및 총괄 매니저'**입니다. 사용자의 요청을 받아 "이건 인터넷 검색이 필요하겠군", "이건 코딩 AI에게 맡겨야지" 하고 업무를 분배하고 흐름을 제어합니다.
사용 도구: LangGraph, CrewAI (여러 AI 에이전트가 협업하게 만드는 최신 프레임워크)
에이전트가 사용자의 질문을 분석하여 **외부 지식(사내 문서, 최신 정보 등)이 필요한지(YES) 아닌지(NO)**를 판단하는 분기점입니다.
역할: AI가 모르는 특정 문서나 데이터를 검색해서 읽어오게 하는 기술입니다. (예: "우리 회사 규정집 좀 찾아봐")
사용 도구:
검색 엔진: LlamaIndex
벡터 데이터베이스(의미 검색): ChromaDB, Qdrant (로컬 구동)
일반 데이터베이스: SQLite, DuckDB, Supabase(무료 티어)
역할: 실질적으로 글을 쓰고 답변을 만들어내는 핵심 AI 엔진입니다. 다이어그램에서 명시했듯 **"Running Locally(로컬 구동)"**을 원칙으로 하여 비용이 0원입니다.
사용 도구:
구동 프로그램: Ollama (LM Studio와 비슷한 로컬 구동 프로그램)
AI 모델: Llama 3.3 70B (메타의 최신 대형 모델), Mistral Small 4, Gemma 4 등
역할: AI가 말만 하는 게 아니라 실제 행동(파일 읽기, 슬랙 메시지 보내기, 깃허브 코드 작성 등)을 하게 만듭니다.
사용 도구:
MCP (Model Context Protocol): AI가 외부 도구와 안전하게 연결되게 하는 표준 기술.
Claude Code CLI, Aider: AI가 직접 내 컴퓨터의 코드를 수정하고 프로그램을 짜주는 도구.
Observability (모니터링): Phoenix (로컬 호스팅). AI가 중간에 헛소리를 하지 않는지, 데이터는 잘 찾았는지 추적하고 감시합니다.
Deployment (배포): Docker, Cloudflare Workers, HuggingFace Spaces를 이용해 서버비 없이 결과물을 배포합니다.
아키텍처의 핵심인 로컬 LLM(Ollama)과 오케스트레이터(CrewAI)를 내 컴퓨터에 설치하여 직접 AI 에이전트를 구축하기 위한 첫걸음입니다.
Ollama는 복잡한 설정 없이 명령어 한 줄로 오픈소스 AI 모델을 내 컴퓨터에서 실행하게 해주는 가장 인기 있는 도구입니다.
인터넷 브라우저를 열고 ollama.com 홈페이지에 접속합니다.
커다란 [Download] 버튼을 클릭하여 Windows(또는 Mac)용 설치 파일을 다운로드합니다.
다운로드된 파일을 실행하여 설치를 완료합니다. (설치 후 윈도우 우측 하단 시스템 트레이에 귀여운 라마 아이콘이 생깁니다.)
키보드에서 Windows 키를 누르고 cmd를 검색하여 '명령 프롬프트' 창을 엽니다.
(구글의 최신 경량 모델인 Gemma 2를 다운로드하고 실행하는 명령어입니다. PC 사양이 좋다면 llama3로 변경하셔도 좋습니다.)
다운로드가 100% 완료되면 >>> 표시가 나오는데, 여기에 한글이나 영어로 대화를 걸어보면 내 컴퓨터 자원만으로 AI가 답변을 합니다! (종료하려면 /bye 입력)
다양한 역할을 가진 AI 직원(리서치 담당, 글쓰기 담당 등)을 만들고, 앞서 설치한 Ollama(두뇌)를 연결해 주는 파이썬 기반의 프레임워크입니다.
Python 설치: python.org에 접속하여 최신 버전의 Python을 설치합니다. (주의: 설치 화면 첫 페이지 하단의 Add Python.exe to PATH 체크박스를 반드시 체크해야 합니다.)
명령 프롬프트 열기: 다시 Windows 키 -> cmd를 검색하여 명령 프롬프트를 엽니다.
(이 명령어는 파이썬 환경에 에이전트를 만들기 위한 필수 부품들을 다운로드합니다.)
연결 확인: 코딩 에디터(VS Code 등)를 열고 파이썬 스크립트를 작성하여 CrewAI와 로컬의 Ollama를 연결하면 0달러짜리 나만의 자동화 시스템이 완성됩니다.
💡 개발 실무 팁: > Ollama는 백그라운드에서 항상 대기 중인 상태로 동작하므로, Python 코드로 짜여진 CrewAI가 로컬호스트 주소(http://localhost:11434)를 통해 Ollama에게 "이것 좀 생각해서 답변해 줘"라고 API 요청을 무료로 무제한 보낼 수 있게 됩니다.
이 멋진 0달러 아키텍처를 내 방에서 그대로 구현하려면 하드웨어가 뒷받침되어야 합니다.
특히 다이어그램 우측의 LLM Layer에 있는 Llama 3.3 70B 같은 고성능 모델을 로컬(내 컴퓨터)에서 원활하게 돌리려면, 이전에 권장해 드린 NVIDIA RTX 4090 (VRAM 24GB 이상) 또는 그 이상의 메모리 환경이 반드시 필요합니다.
즉, 이전 가이드대로 고사양 PC를 맞추시면, 단순히 남이 만든 UI 창에 글을 쓰는 것을 넘어 이 다이어그램처럼 나만의 자동화된 AI 직원 시스템(Agent)을 직접 코딩하고 구축하는 마스터 레벨의 작업까지 완벽하게 소화하실 수 있습니다.