사용자가 질문을 던졌을 때 LLM이 답변을 생성하기까지 5초가 걸린다면 해당 서비스는 사용자 이탈을 피할 수 없습니다. 이 지연 시간의 핵심 주범은 수백만 개의 벡터 데이터 사이에서 길을 잃은 시맨틱 검색(Semantic Search) 과정입니다. 대규모 데이터셋에서 단순한 전수 조사(Flat Search)는 불가능에 가깝습니다. 인덱싱 알고리즘의 파…
RAG(Retrieval-Augmented Generation) 파이프라인을 구축해 본 엔지니어라면 누구나 마주하는 현실적인 벽이 있습니다. 바로 "정확도를 높이면 속도가 죽고, 속도를 높이면 엉뚱한 문서를 가져온다" 는 딜레마입니다. 특히 사용자가 질문을 던지고 LLM이 답변하기까지 3~4초가 걸린다면, 이는 모델의 추론 속도 문제…
You’ve built a RAG pipeline, the answers are accurate, but the retrieval step alone is eating up 800ms. In a recent project handling document search for a financial assistant, we faced exactly this…