config2 [LLM Application] 동적으로 LLM과 prompt 변환하기 2025.04.03 - [Data & Research] - [Langchain & Langgraph] Table of ContentsLLM모델을 GPT4에서 GPT4-mini로 바꾼다든지 prompt를 상황에 따라 바꾼다든지 해야할 경우도 있을 수 있겠죠? 이럴 때 사용하는 것이 ConfigurableField입니다. from langchain_core.runnables import ConfigurableField# --- 1. 기본 모델과 프롬프트 정의 ---prompt = ChatPromptTemplate.from_template("{question}")model = ChatOpenAI(model="gpt-4o").with_configurable_fields( # 'model_name'을 in.. 2025. 8. 28. [LLM & RAG] Langchain 기초 - LLM LLM 모델은 물론 저희가 직접 training시키거나 기저부터 만드는 것은 아닙니다만 어느정도의 조정의 여지는 있습니다. temperature : 생성된 텍스트의 창의성을 조절하는 값 (0~2, 기본값: 1). 낮을수록 더 확정적인 답변을 생성하고, 높을수록 다양하고 창의적인 응답을 생성.max_tokens : 모델이 한 번의 응답에서 생성할 수 있는 최대 토큰 수. 너무 짧으면 불완전한 답변이 나올 수 있음.top_p : Nucleus Sampling 기법으로, 확률값이 높은 토큰의 누적 확률이 top_p 이하가 되도록 샘플링. 낮출수록 보수적인 응답 생성.frequency_penalty : 특정 단어가 반복되는 것을 방지하는 값 (-2.0 ~ 2.0). 값이 클수록 반복된 단어 사용을 줄임.sto.. 2025. 4. 3. 이전 1 다음 반응형