최근 AI 서비스는 단순한 LLM API 호출을 넘어
검색, 데이터 처리, API 연동, 자동화를 결합하는 방향으로 발전하고 있다.
이러한 AI 애플리케이션을 구축하기 위해서는
LLM뿐 아니라 다양한 기술 스택이 함께 필요하다.
대표적인 AI 서비스 개발 스택은 다음과 같이 구성된다.
Frontend
↓
API Server (FastAPI)
↓
AI Orchestration (LangChain)
↓
LLM
↓
Vector Database
↓
External Data / Tools
이 글에서는 AI 서비스에서 가장 많이 사용되는
LangChain, FastAPI, Vector Database의 역할과 구조를 정리한다.
1. FastAPI: AI 서비스 API 서버
FastAPI는 Python 기반 고성능 웹 프레임워크로
AI 서비스에서 API 서버 역할을 담당한다.
AI 시스템에서는 다음과 같은 구조가 일반적이다.
↓
HTTP API
↓
FastAPI
↓
AI Pipeline
↓
LLM
FastAPI가 많이 사용되는 이유는 다음과 같다.
비동기 처리 지원
AI 서비스는
- LLM 호출
- Vector 검색
- 외부 API
등 네트워크 작업이 많기 때문에
비동기 처리가 중요한데 FastAPI는 이를 잘 지원한다.
Python 생태계와의 궁합
AI 개발은 대부분 Python 기반이다.
대표적인 라이브러리
- LangChain
- LlamaIndex
- HuggingFace
- Pandas
FastAPI는 이러한 Python 라이브러리와 자연스럽게 통합된다.
REST API 구축
AI 서비스를 API 형태로 제공할 수 있다.
예
POST /rag/query
POST /agent/run
2. LangChain: AI Orchestration Layer
LangChain은 LLM 기반 애플리케이션을 구축하기 위한 프레임워크이다.
AI 서비스에서는 단순히 LLM을 호출하는 것이 아니라
다양한 작업을 연결해야 한다.
예
- 문서 검색
- 데이터 처리
- API 호출
- 멀티 스텝 reasoning
LangChain은 이러한 흐름을 체인(Chain) 구조로 구성한다.
예
↓
Document Retrieval
↓
Context 생성
↓
LLM 호출
↓
Response
이러한 구조를 RAG(Retrieval Augmented Generation) 라고 한다.
LangChain의 주요 기능
Chain
여러 AI 작업을 연결하는 구조
Agent
LLM이 어떤 도구를 사용할지 판단하는 시스템
예
↓
Agent
↓
Search Tool / API
↓
LLM
Memory
대화 상태를 유지하는 기능
3. Vector Database: AI 검색 엔진
LLM은 기본적으로 학습된 데이터만 알고 있기 때문에
최신 정보나 내부 데이터를 사용할 수 없다.
이 문제를 해결하기 위해 Vector Database가 사용된다.
Vector Database는 문서를 Embedding 벡터 형태로 저장하고
유사한 문서를 검색하는 시스템이다.
RAG 시스템의 구조는 다음과 같다.
↓
Embedding 생성
↓
Vector Database 검색
↓
Relevant Documents
↓
LLM
↓
Response
대표적인 Vector Database는 다음과 같다.
| Pinecone | 관리형 서비스 |
| Weaviate | AI 검색 엔진 |
| Chroma | 경량 Vector DB |
| pgvector | PostgreSQL 기반 |
| Elasticsearch | 벡터 검색 지원 |
4. AI 서비스 전체 아키텍처
AI 서비스는 보통 다음과 같은 구조를 가진다.
↓
Frontend
↓
FastAPI
↓
LangChain
↓
LLM
↓
Vector Database
↓
Document Storage
여기에 다음 시스템이 추가되기도 한다.
- Redis (캐시)
- Kafka (이벤트 처리)
- Kubernetes (배포)
- Prometheus / Grafana (모니터링)
5. AI 서비스 개발 흐름
AI 애플리케이션 개발 과정은 다음과 같다.
1. 데이터 준비
문서 수집
예
- 웹 페이지
- 내부 문서
2. Embedding 생성
문서를 벡터로 변환
3. Vector DB 저장
벡터 형태로 저장
4. 질문 처리
사용자 질문을 벡터로 변환
5. 문서 검색
유사 문서 검색
6. LLM 응답 생성
검색된 문서를 기반으로 답변 생성
6. AI 서비스 개발 스택 정리
AI 서비스 개발에서는 다음 기술 스택이 자주 사용된다.
├ FastAPI
├ LangChain
└ Python
AI Model
├ OpenAI
├ Claude
└ Llama
Data
├ Vector DB
├ PostgreSQL
└ Elasticsearch
Infrastructure
├ Docker
├ Kubernetes
└ Monitoring
7. 정리
AI 서비스는 단순한 LLM 호출이 아니라
검색, 데이터, API, 자동화가 결합된 시스템이다.
대표적인 AI 서비스 스택은 다음과 같다.
- FastAPI → AI API 서버
- LangChain → AI workflow orchestration
- Vector Database → 문서 검색 시스템
이 세 가지를 결합하면
RAG 기반 AI 서비스를 구축할 수 있다.
앞으로 AI 서비스 아키텍처에서는
이러한 구조가 하나의 표준 패턴이 될 가능성이 높다
'Python (AI Service)' 카테고리의 다른 글
| 돈이 되는 AI 서비스 인프라 설계: RAG 기반 AI 시스템을 실제 서비스로 만드는 방법 (0) | 2026.03.06 |
|---|---|
| RAG 시스템 설계 패턴: LLM 서비스의 정확도를 높이는 아키텍처 (0) | 2026.03.06 |
| AI 서비스 개발 환경: PyCharm과 Claude Code의 역할 (0) | 2026.03.06 |
| LangChain이란 무엇인가: LLM 기반 AI 서비스를 만드는 프레임워크 (0) | 2026.03.06 |
| AI 서비스의 다음 단계: Multi-Agent Architecture 이해하기 (0) | 2026.03.06 |
