LLM을 활용한 질의 응답 방식
외부 지식 소스 연동을 통한 답변 정확성 및 풍부성 강화
- LLM은 방대한 양의 텍스트 데이터를 학습했지만, 실시간 정보나 특정 전문 지식 베이스에 대한 접근성이 제한적일 수 있음
- 외부 지식 소스 연동은 이러한 한계를 극복하고 답변의 정확성과 풍부성을 높이는 방식
1. 작동 원리
1단계: 사용자 질의 분석 및 관련 정보 검색
- 사용자의 질의 분석 → 핵심 키워드, 의도, 필요한 정보의 유형 등 파악
- 분석 결과를 바탕으로 외부 지식 소스에서 질의와 관련된 정보 검색
- 외부 지식 소스: 웹 검색 엔진, 지식 그래프, 전문 데이터베이스, API 등
2단계: 검색된 정보 통합 및 문맥 구성
- 검색된 외부 정보를 LLM의 입력으로 함께 제공하기 위해 적절한 형태로 가공, 통합
- 사용자 질의와 검색된 정보를 결합 → LLM이 답변 생성 시 참고할 수 있는 확장된 문맥 구성
3단계: LLM 기반 답변 생성
- 입력된 확장된 문맥 정보를 바탕으로 사용자 질의에 대한 답변 생성
- 자체적으로 학습한 지식 + 외부에서 검색된 정보를 종합적으로 활용 → 더욱 정확하고 풍부한 답변 제공
- 답변 출처 명시(RAG, Retrieval-Augmented Generation), 추가 정보 제공 등으로 답변의 신뢰성 향상 지원
2. 핵심 특징
- 장점
- LLM이 학습하지 못한 최신 정보나 특정 도메인의 전문 지식을 활용하여 답변의 정확성을 크게 향상시킬 수 있음
- 답변에 대한 근거를 제시하거나 추가 정보를 제공하여 답변의 풍부함과 신뢰성을 높일 수 있음
- 단점
- 외부 지식 소스의 품질과 검색 성능에 따라 답변의 정확성이 영향을 받을 수 있음
- 검색된 정보를 LLM의 입력 형태로 적절히 통합하는 과정이 복잡할 수 있음
3. 활용 예시
- Bing Chat이나 Google Bard와 같이 웹 검색 결과를 LLM과 결합하여 답변을 생성하는 방식
- 특정 기업의 내부 지식 베이스와 LLM을 연동하여 사내 질의응답 시스템을 구축하는 방식