미스트랄 AI / mistral-embed
작업: 임베딩
형태: 텍스트
유사성 측정법: 모두(정규화)
라이선스: 독점
차원: 1024
최대 입력 토큰: 8000
가격: 0.10 / 100만 토큰
미스트랄 임베드 소개
- 8,000개 토큰의 컨텍스트 창을 가진 텍스트 데이터에 특화된 임베딩 모델입니다.
- 시맨틱 검색](https://zilliz.com/glossary/semantic-search) 및 RAG 애플리케이션에 최적화되어 있습니다.
- MTEB 검색 점수: 55.26.
미스트랄-임베드로 임베드 생성하는 방법
벡터 임베딩을 생성하려면 Mistral AI에서 제공하는 Python SDK인 Mistral AI 라이브러리를 사용하는 것이 좋습니다.
벡터 임베딩을 생성한 후에는 질리즈 클라우드(밀버스에서 제공하는 완전 관리형 벡터 데이터베이스 서비스)에 저장하여 시맨틱 유사도 검색에 사용할 수 있습니다. 다음은 네 가지 주요 단계입니다:
- 질리즈 클라우드 계정을 무료로 가입합니다.
- 서버리스 클러스터 설정](https://docs.zilliz.com/docs/create-cluster#set-up-a-free-cluster)을 완료하고 퍼블릭 엔드포인트 및 API 키를 발급받습니다.
- 벡터 컬렉션을 생성하고 벡터 임베딩을 삽입합니다.
- 저장된 임베딩에 대해 시맨틱 검색을 실행합니다.
미스트랄 AI의 SDK를 통해 벡터 임베딩을 생성하고 질리즈 클라우드에 삽입하여 시맨틱 검색을 진행합니다.
pymilvus에서 MilvusClient를 가져옵니다.
에서 미스트랄라이 가져 오기 미스트랄
MISTRALAI_API_KEY = "your-mistral-api-key"
client = Mistral(api_key=MISTRALAI_API_KEY)
docs = [
"인공 지능은 1956년에 학문 분야로 설립되었습니다.",
"앨런 튜링은 인공지능에 대해 실질적인 연구를 수행한 최초의 인물입니다.",
"런던의 메이다 베일에서 태어난 튜링은 영국 남부에서 자랐습니다.", "앨런 튜링은 인공지능을 연구한 최초의 인물입니다."
]
# 문서에 대한 임베딩 생성
results = client.embeddings.create(inputs=docs, model="mistral-embed")
docs_embeddings = [results.data의 데이터에 대한 데이터.임베딩]
queries = ["인공 지능은 언제 설립되었나요",
"앨런 튜링은 어디에서 태어났나요?"]
# 쿼리에 대한 임베딩 생성하기
response = client.embeddings.create(inputs=queries, model="mistral-embed")
쿼리 임베딩 = [response.data의 데이터에 대한 데이터.임베딩]
# 퍼블릭 엔드포인트와 API 키로 질리즈 클라우드에 연결하기
client = 밀버스클라이언트(
uri=ZILLIZ_PUBLIC_ENDPOINT,
token=ZILLIZ_API_KEY)
컬렉션 = "문서"
if client.has_collection(collection_name=COLLECTION):
client.drop_collection(collection_name=COLLECTION)
client.create_collection(
collection_name=COLLECTION,
dimension=1024,
auto_id=True)
문서의 경우 zip(docs, docs_embeddings)에 임베딩합니다:
client.insert(COLLECTION, {"text": doc, "vector": embedding})
results = client.search(
collection_name=COLLECTION,
data = 쿼리_임베딩,
일관성_레벨="강함",
output_fields=["text"])
자세한 내용은 미스트랄 AI 문서를 참조하세요.
원활한 AI 워크플로
임베딩부터 확장 가능한 AI 검색까지—Zilliz Cloud를 사용하면 비교할 수 없는 속도와 효율성으로 임베딩을 저장, 인덱싱 및 검색할 수 있습니다.
Zilliz Cloud를 무료로 사용해 보세요

