2025-08-11 21:57
Tags: AI
RAG
- LLM 의 성능은 상승 But 실시간 정보, 내부 비공개 정보는 모름
- 실제 정보 줘서 환각 현상 줄이고 내부 자료 기반으로 사용 가능하게
- 더 나은 성능 위해선 프롬프트 엔지니어링 도 함께
핵심 구조
- 검색기 (Retriever): 외부 지식 소스에서 가장 관련성 높은 정보 찾아옴
- 생성기 (Generator): 검색된 정보와 원본 질문 입력 → 최종 답변 만드는 LLM
검색(Retrieval): 방대한 데이터 속 핵심 정보 찾기
- 핵심 기술
- 검색 과정
- 사용자 질문
- 질문 → (임베딩 모델) → 벡터 변환
- 벡터 DB에서 유사도 검색 → 가장 가까운 거리에 있는 데이터 청크들의 벡터 찾음
- 가장 관련성 높다고 판단한 상위 몇개의 데이터 조각을 ‘참고자료’로 확보
증강 생성(Augmented Generation): 참고 자료 기반 답변
- 생성 과정
- 원본 질문 + 관련정보(Context) 결합 → 새로운 프롬프트 → LLM 전달
- 명확한 근거, 컨텍스트 기반으로 답변 생성
RAG 시스템 구축: 데이터 준비 + 답변 생성
핵심 구조
- 인덱싱 파이프라인(오프라인): 지식 베이스 구축
- 추론 파이프라인(온라인): 사용자 질문에 답변
인덱싱 파이프라인(Indexing Pipeline)
- 데이터 로드: 답변의 근거가 될 원본 문서들, 데이터 불러옴
- 데이터 분할(Split/Chunk): 의미있는 단위로 잘게 쪼갠다.
- 임베딩: 분할된 각 조각 → 벡터로 변환
- 저장: 변환된 벡터 + 원복 텍스트 조각 한쌍 ⇒ 벡터 데이터베이스에 저장(인덱싱)
추론 파이프라인(Inference Pipeline)
- 질문 임베딩: 사용자 질문 → 동일 임베딩 모델 → 질문벡터(벡터화)
- 검색(Retrieve): 질문 벡터 → 벡터 DB에서 가장 유사한 데이터 조각(Top-K) 검색
- 생성(Generate): 검색된 데이터 조각 + 원본 질문 → 프롬프트 → LLM 전달 → 최종 답변
References
[[1-📚 참고 노트/ai 답변/[2025년 최신] RAG 완벽 핸드북 자율형 AI 시대를 여는 핵심 기술]] RAG 핸드북 LLM의 환각을 잠재우는 비법, A부터 Z까지