최근 AI 서비스는 단순한 LLM API 호출을 넘어
검색, 데이터 처리, API 연동, 자동화를 결합하는 방향으로 발전하고 있다.

이러한 AI 애플리케이션을 구축하기 위해서는
LLM뿐 아니라 다양한 기술 스택이 함께 필요하다.

대표적인 AI 서비스 개발 스택은 다음과 같이 구성된다.

AI Service Stack

Frontend

API Server (FastAPI)

AI Orchestration (LangChain)

LLM

Vector Database

External Data / Tools
 

이 글에서는 AI 서비스에서 가장 많이 사용되는
LangChain, FastAPI, Vector Database의 역할과 구조를 정리한다.


1. FastAPI: AI 서비스 API 서버

FastAPI는 Python 기반 고성능 웹 프레임워크
AI 서비스에서 API 서버 역할을 담당한다.

AI 시스템에서는 다음과 같은 구조가 일반적이다.

User

HTTP API

FastAPI

AI Pipeline

LLM
 

FastAPI가 많이 사용되는 이유는 다음과 같다.

비동기 처리 지원

AI 서비스는

  • LLM 호출
  • Vector 검색
  • 외부 API

등 네트워크 작업이 많기 때문에
비동기 처리가 중요한데 FastAPI는 이를 잘 지원한다.


Python 생태계와의 궁합

AI 개발은 대부분 Python 기반이다.

대표적인 라이브러리

  • LangChain
  • LlamaIndex
  • HuggingFace
  • Pandas

FastAPI는 이러한 Python 라이브러리와 자연스럽게 통합된다.


REST API 구축

AI 서비스를 API 형태로 제공할 수 있다.

POST /chat
POST /rag/query
POST /agent/run
 

2. LangChain: AI Orchestration Layer

LangChain은 LLM 기반 애플리케이션을 구축하기 위한 프레임워크이다.

AI 서비스에서는 단순히 LLM을 호출하는 것이 아니라
다양한 작업을 연결해야 한다.

  • 문서 검색
  • 데이터 처리
  • API 호출
  • 멀티 스텝 reasoning

LangChain은 이러한 흐름을 체인(Chain) 구조로 구성한다.

User Question

Document Retrieval

Context 생성

LLM 호출

Response
 

이러한 구조를 RAG(Retrieval Augmented Generation) 라고 한다.


LangChain의 주요 기능

Chain

여러 AI 작업을 연결하는 구조

Search → Context → LLM
 

Agent

LLM이 어떤 도구를 사용할지 판단하는 시스템

User Question

Agent

Search Tool / API

LLM
 

Memory

대화 상태를 유지하는 기능


3. Vector Database: AI 검색 엔진

LLM은 기본적으로 학습된 데이터만 알고 있기 때문에
최신 정보나 내부 데이터를 사용할 수 없다.

이 문제를 해결하기 위해 Vector Database가 사용된다.

Vector Database는 문서를 Embedding 벡터 형태로 저장하고
유사한 문서를 검색하는 시스템이다.

RAG 시스템의 구조는 다음과 같다.

User Question

Embedding 생성

Vector Database 검색

Relevant Documents

LLM

Response
 

대표적인 Vector Database는 다음과 같다.

Vector DB특징
Pinecone 관리형 서비스
Weaviate AI 검색 엔진
Chroma 경량 Vector DB
pgvector PostgreSQL 기반
Elasticsearch 벡터 검색 지원

4. AI 서비스 전체 아키텍처

AI 서비스는 보통 다음과 같은 구조를 가진다.

Client

Frontend

FastAPI

LangChain

LLM

Vector Database

Document Storage
 

여기에 다음 시스템이 추가되기도 한다.

  • Redis (캐시)
  • Kafka (이벤트 처리)
  • Kubernetes (배포)
  • Prometheus / Grafana (모니터링)

5. AI 서비스 개발 흐름

AI 애플리케이션 개발 과정은 다음과 같다.

1. 데이터 준비

문서 수집

  • PDF
  • 웹 페이지
  • 내부 문서

2. Embedding 생성

문서를 벡터로 변환


3. Vector DB 저장

벡터 형태로 저장


4. 질문 처리

사용자 질문을 벡터로 변환


5. 문서 검색

유사 문서 검색


6. LLM 응답 생성

검색된 문서를 기반으로 답변 생성


6. AI 서비스 개발 스택 정리

AI 서비스 개발에서는 다음 기술 스택이 자주 사용된다.

Backend
├ FastAPI
├ LangChain
└ Python

AI Model
├ OpenAI
├ Claude
└ Llama

Data
├ Vector DB
├ PostgreSQL
└ Elasticsearch

Infrastructure
├ Docker
├ Kubernetes
└ Monitoring
 

7. 정리

AI 서비스는 단순한 LLM 호출이 아니라
검색, 데이터, API, 자동화가 결합된 시스템이다.

대표적인 AI 서비스 스택은 다음과 같다.

  • FastAPI → AI API 서버
  • LangChain → AI workflow orchestration
  • Vector Database → 문서 검색 시스템

이 세 가지를 결합하면
RAG 기반 AI 서비스를 구축할 수 있다.

앞으로 AI 서비스 아키텍처에서는
이러한 구조가 하나의 표준 패턴이 될 가능성이 높다

LIST

+ Recent posts