Cấu hình và tinh chỉnh các mô hình chat
LangChain cung cấp nhiều cách để cấu hình các chat models bằng cách sử dụng các cấu trúc xích, mô đun
ghi nhớ, và tùy chỉnh tham số
Thiết lập các prompts hệ thống
Định nghĩa thông điệp hệ thống để kiểm soát hành vi của model hay vai trò trong cuộc trao đổi trò chuyện.
Các prompts hệ thống phục vụ như bối cảnh cho trợ lí
Điều chỉnh các siêu tham số
Cấu hình các tham số như temprature, max_tokens, và top_p để kiểm soát hành vi trả lời và chất lượng
đầu ra.
+ Temperature: Điều chỉnh sáng tạo (cao hơn = sáng tạo hơn, thấp hơn = xác định hơn)
+ Max Tokens: Giới hạn độ dài trả lời
from langchain_openai import ChatOpenAI
chat_model = ChatOpenAI(temperature=0.5, max_tokens=200)
Tích hợp ghi nhớ cho trao đổi trò chuyện nhiều lượt
Các mô đung ghi nhớ của LangChain cho phép các chat models giữ lại bối cảnh trao đổi trò chuyện. Ví dụ,
ConversationBufferMemory duy trì một hồ sơ của các tương tác
from langchain.chains import ConversationChain
from langchain.memory import ConversationBufferMemory
memory = ConversationBufferMemory()
conversation = ConversationChain(llm=chat_model, memory=memory)
conversation.predict(input=”Hello, can you help me plan my day?”)
conversation.predict(input=”Where did I go yesterday?”)
output:
According to your GPS data, you went to work in the morning, then to the gym in the evening, and finally to a restaurant for dinner. Is there anything else you would like to know about your activities yesterday?
Đoạn code này thiết lập một xích trao đổi trò chuyện với ghi nhớ trong LangChain, cho phép một AI model
duy trì bối cảnh qua nhiều tương tác. ConversationBufferMemory lưu giữ các lượt trao đổi trò chuyện
trước, làm có thể model tham chiếu các đầu vào đã qua khi trả lời tới các truy vấn mới.
