2025-08-11 21:57

Tags: AI

RAG

  • LLM 의 성능은 상승 But 실시간 정보, 내부 비공개 정보는 모름
  • 실제 정보 줘서 환각 현상 줄이고 내부 자료 기반으로 사용 가능하게
  • 더 나은 성능 위해선 프롬프트 엔지니어링 도 함께

핵심 구조

  • 검색기 (Retriever): 외부 지식 소스에서 가장 관련성 높은 정보 찾아옴
  • 생성기 (Generator): 검색된 정보와 원본 질문 입력 최종 답변 만드는 LLM

검색(Retrieval): 방대한 데이터 속 핵심 정보 찾기

  • 핵심 기술
  • 검색 과정
    • 사용자 질문
    • 질문 (임베딩 모델) 벡터 변환
    • 벡터 DB에서 유사도 검색 가장 가까운 거리에 있는 데이터 청크들의 벡터 찾음
    • 가장 관련성 높다고 판단한 상위 몇개의 데이터 조각을 ‘참고자료’로 확보

증강 생성(Augmented Generation): 참고 자료 기반 답변

  • 생성 과정
    • 원본 질문 + 관련정보(Context) 결합 새로운 프롬프트 LLM 전달
    • 명확한 근거, 컨텍스트 기반으로 답변 생성

RAG 시스템 구축: 데이터 준비 + 답변 생성

핵심 구조

  • 인덱싱 파이프라인(오프라인): 지식 베이스 구축
  • 추론 파이프라인(온라인): 사용자 질문에 답변

인덱싱 파이프라인(Indexing Pipeline)

  • 데이터 로드: 답변의 근거가 될 원본 문서들, 데이터 불러옴
  • 데이터 분할(Split/Chunk): 의미있는 단위로 잘게 쪼갠다.
  • 임베딩: 분할된 각 조각 벡터로 변환
  • 저장: 변환된 벡터 + 원복 텍스트 조각 한쌍 벡터 데이터베이스에 저장(인덱싱)

추론 파이프라인(Inference Pipeline)

  • 질문 임베딩: 사용자 질문 동일 임베딩 모델 질문벡터(벡터화)
  • 검색(Retrieve): 질문 벡터 벡터 DB에서 가장 유사한 데이터 조각(Top-K) 검색
  • 생성(Generate): 검색된 데이터 조각 + 원본 질문 프롬프트 LLM 전달 최종 답변

References

LLM

[[1-📚 참고 노트/ai 답변/[2025년 최신] RAG 완벽 핸드북 자율형 AI 시대를 여는 핵심 기술]] RAG 핸드북 LLM의 환각을 잠재우는 비법, A부터 Z까지