LangChain và các Agents (phần 12)

Sử dụng LangChain để tạo hệ thống RAG (tiếp tục)

Trong khi một đào sâu vào các kiến trúc Transformer là vượt quá phạm vi các học phần, nó là đáng chú ý chú ý rằng
nhiều trong số models mới nhất, tiên tiến học hướng tới các thiết kế decoder-only và được huấn luyện cho tạo sinh
text. Các models này đang chứng tỏ đáng ngạc nhiên là các models linh động chuyên biệt vượt trội trên các nhiệm
vụ chúng đã không được thiết kế cho ban đầu. Ví dụ, các models tạo sinh text huấn luyện tốt bây giờ đang cạnh
tranh các models text-to-speech thậm chí trong các lĩnh vực như dịch và trả lời câu hỏi.
Nói tóm lại, tôi khuyến nghị rằng bạn cũng thử cả 2 models, và bạn sẽ có thể quan sát sự khác nhau trong các trả
lời giành được. Mong đợi nhiều hơn nhiều các trả lời ngắn gọn với T5 Model.
Bây giờ là lúc để tạo các dòng ống, rất giống như làm cách nào bạn đã làm nó trong học phần trước. Động lực chính
xác là tương tự: để giành một dòng ống cái quan tâm gửi text tới model và trả về trả lời. Tuy nhiên, bạn sẽ không
là máy khách của dòng ống này; nó sẽ là LangChain.
Chú ý Nếu bạn muốn chạy notebook trên Google Colab sử dụng Dolly 3b, bạn nên có một tài khoản Colab Pro. Nếu không,
đơn giản sử dụng T5 model thay vào.

Chia sẻ