Quản lí các Vector Stores (tiếp tục)
Ví dụ 2: Sử dụng Pinecone (Vector Store dựa trên Cloud)
Bây giờ hay xem làm cách nào sử dụng Pinecone, cái lưu giữ các embeddings trong đám mây và hỗ trợ các
ứng dụng quy mô lớn.
+ Bước 1: Khởi tạo Pinecone: Thiết lập Pinecone với một API key và môi trường.
+ Bước 2: Tạo một chỉ mục Pinecone: Một chỉ mục là nơi các embeddings của bạn được lưu giữ và đặt tên
nó như “langchain-demo”
+ Bước 3: Thêm dữ liệu vào Vector Store: Điền các texts của bạn vào Pinecone vector store.
+ Bước 4: Tìm kiếm cho các text tương tự
Bạn có thể truy vấn Pinecone vector store theo cùng cách.
## Setup
!pip install -qU langchain-openai langchain-pinecone
import os
import getpass
from pinecone import Pinecone
from langchain_openai import AzureOpenAIEmbeddings
from langchain_pinecone import PineconeVectorStore
pinecone_key = <insert your Pinecone Key>
# Initialize Pinecone client
pc = Pinecone(api_key=pinecone_key)
# Create Azure OpenAI embeddings
embeddings = AzureOpenAIEmbeddings(azure_endpoint=os.environ[“AZURE_OPENAI_ENDPOINT”],
azure_deployment=”<Embedding Deployment Name>”,
openai_api_version=os.environ[“OPENAI_API_VERSION”],)
# Create Pinecone vector store
vector_store = PineconeVectorStore.from_texts(texts=[“LangChain simplifies AI workflows.”, “Pinecone manages vector stores.”],
embedding=embeddings,
index_name=”langchain-demo”)
# Perform similarity search
query = “What is LangChain?”
results = vector_store.similarity_search(query, k=1)
# Print results
for result in results:print(result.page_content)
Output:
LangChain simplifies AI workflows.
Code này cài đặt và khởi tạo các thư viện cần thiết langchain-openai và langchain-pinecone, để tạo một
vector store sử dụng các embeddings Pinecone và Azure OpenAI. Nó minh họa embedding text, lưu giữ nó
trong Pinecone, và thực hiện một tìm kiếm tương tự để tìm ra kết quả phù hợp nhất cho một truy vấn đã
cho.
