스칼렛 SCARLET
도메인별 특화 LLM을 상황에 맞게 전환,
통합하는 복합 구조로
낮은 지연 시간과 목적별
최적화 를 동시에 구현하는 AI모델
도메인 질문에 대한
정확도17% 향상
상황 및 문맥
인과 이해 능력23% 향상
일반 오픈소스 LLM 대비
Latency(지연율)62%이상 감소
정확히 이해하고 판단합니다
Crimson이 변환한 텍스트를 입력받아
문맥과 상황을 정확히 이해하고 스스로 판단하는 역할을 수행합니다.

일관된 판단 결과를 제공합니다.
산업별 문맥과 상황을 스스로 판별해
행동하는 sLLM
스칼렛
모델 소개
Scarlet은 공개된 오픈소스 LLM 아키텍처를 기반으로, 세무, 웨딩, 고객 상담, 미디어 등 다양한 산업 도메인에서 발생하는 특수한 문맥·상황 이해 능력을 강화하도록 파인튜닝된 sLLM(Specialized Large Language Model)입니다.
Crimson이 “정확히 듣는 모델”이라면, Scarlet은 “정확히 이해하고 판단하는 모델”입니다.
단순한 질의응답을 넘어, 실제 업무 프로세스·대화 흐름·상황 인과관계를 정확하게 해석하고, 각 산업의 규칙과 문맥을 반영한 일관된 판단 결과를 제공합니다.
Scarlet은 공개된 오픈소스 LLM 아키텍처를 기반으로, 세무, 웨딩, 고객 상담, 미디어 등 다양한 산업 도메인에서 발생하는 특수한 문맥·상황 이해 능력을 강화하도록 파인튜닝된 sLLM(Specialized Large Language Model)입니다.
Crimson이 “정확히 듣는 모델”이라면, Scarlet은 “정확히 이해하고 판단하는 모델”입니다.
단순한 질의응답을 넘어, 실제 업무 프로세스·대화 흐름·상황 인과관계를 정확하게 해석하고, 각 산업의 규칙과 문맥을 반영한 일관된 판단 결과를 제공합니다.
핵심 개념 요약
Domain-Aware Reasoning Engine
산업별 문맥·용어·지식 그래프를 반영한
추론 구조
Context-Sensitive Instruction Layer
상황에 따라 응답 규칙·우선순위를
동적으로 변경
Scenario-Adaptive Fine-Tuning
“도메인 내 특정 상황”에 대해
훨씬 적극적인 반응을 하도록 설계
Modularized sLLM Architecture
산업별/업무별로 모듈 단위 확장 및
파인튜닝 가능
구조적 특징
Scarlet은 단순히 LLM에 데이터만 추가한 것이 아니라,
아래의 세 가지 핵심 레이어를 중심으로 도메인별 행동 패턴을 학습합니다.
Layer ①
Domain Semantic Knowledge Layer (도메인 의미망 계층)
- 산업별 Knowledge Graph 반영
- 규정, 계약문 패턴, 상담 스크립트, 정책 문서 등 구조적 지식 내재화
- 단순 단어 매칭이 아니라, 문맥적 의미 관계를 통해 올바른 정책·규칙 선택
Layer ②
Contextual Behavior Control Layer
문맥에 따라 “모델의 판단 방식을 바꾸는 계층”
- 웨딩 → 고객 감성 케어 우선
- 세무 → 법률적 정확성 + 리스크 최소화 우선
- 상담 → 발화 의도 해석·요약 우선
특정 상황(전문 용어, 예산 협의, 민원 상황)에서 반응 규칙을 강제하거나
우선순위를 자동 조정함.
Layer ③
Instruction Fine-Tuning for Scenario Adaptation
- 도메인 내 다중 상황에 대한 인스트럭션 기반 파인튜닝
- 사소한 문맥 변화에도 응답 방향이 크게 흔들리지 않도록 안정화
- 실제 현업 케이스(상담 로그, 회의록, 보고서)를 반영한 학습
성능 비교(예시)
모델
도메인 질문 정확도
문맥 일관성
의도/상황 해석
전문 용어 처리
LLM
(Base)
72%
68%
61%
64%
스칼렛
(Fine-Tuned)
89%
85%
84%
93%
✔ 도메인 질문 정확도 +17%
✔ 상황·문맥 인과 이해 능력 +23%
✔ 전문 용어·약어 처리 정확도 +29%
추론 품질 개선
(Detailed Metrics)
문맥 흐름 오판율
Contextual Reasoning Error Rate(CRER)
기준모델 대비 34% 감소
사용자 지시를 정확히 따르는 비율
Instruction Compliance Rate(ICR)
92% → 97% 상승
맥락 외 정보 생성률
Hallucination Rate
약 41% 감소
도메인 주요 용어 누락률
Domain Keyword Recall
27% 감소
기술적 구현 요소
①
Domain-Specific Token Biasing
도메인별 단어, 보고서 용어, 브랜드명 등에 대해
디코딩 과정에서 동적 가중치 부여
②
Hybrid Reasoning Engine
1)규정/정책 기반의 룰 기반 추론 2)통계적 LLM 추론
두 가지를 상황에 따라 혼합
③
Memory-Augmented Context Window
- Extended Context Window
(최대 ~64K Tokens) - 회의·콜 상담·장문 보고서 분석에 최적화
④
Multi-Scenario Alignment Tuning
- 고객 불만 대응
- 계약 조건 협의
- 수익 분석 보고
- 세무 규정 판단
등 “상황 단위의 시나리오”를 고도로 학습시킨 구조
추론 속도 및 배포 성능
모델
평균 응답 Latency
토큰 생성 속도
GPU 메모리 사용
배포 환경
LLM
(Base)
820ms
26 tok/s
28GB
클라우드 위주
스칼렛
(Optimized sLLM)
310ms
63 tok/s
22GB
온프레미스 H100,
RTX 5090에 최적화
✔ Latency 62% 감소
✔ 토큰 생성 속도 2.4배 증가
✔ 메모리 최적화로 온프레미스 운용 가능
실제 적용 사례
세무 도메인
- 법령/규정 기반 판단 정확도 향상
- 소득구분, 증빙필요 여부 등 판단 오류 대폭 감소
- 정책 문서 요약과 실제 세무 상황 연결
웨딩 도메인
- 고객 감정 기반 반응 설계
- 견적·계약·일정 흐름에 맞는 자연스러운 제안
- 플래너 상담 패턴을 반영한 시나리오 대응
고객센터
- Crimson STT에서 들어온 텍스트를
Scarlet이 의도 분석 + 응대 가이드 생성 - 인바운드 목적 파악·자동 응대·케이스 요약 자동화