LlamaIndex (GPT Index) 是 LLM 应用程序的数据框架。使用 LlamaIndex 进行构建通常涉及使用 LlamaIndex 核心和一组选定的集成(或插件)。有两种方法可以开始使用 Python 中的 LlamaIndex 进行构建:
入门版:llama-index(https://pypi.org/project/llama-index/)。入门级 Python 包,包括核心 LlamaIndex 以及一系列集成。
自定义:llama-index-core(https://pypi.org/project/llama-index-core/)。 安装核心 LlamaIndex 并在LlamaHub上添加您选择 的应用程序所需的 LlamaIndex 集成包。有超过 300 个 LlamaIndex 集成包可与核心无缝协作,让您可以使用您喜欢的 LLM、嵌入和向量存储提供程序进行构建。
LlamaIndex Python 库具有命名空间,因此包含 import 语句core意味着正在使用核心包。相反,不包含 import 语句core意味着正在使用集成包。
使用示例
# custom selection of integrations to work with core
pip install llama-index-core
pip install llama-index-llms-openai
pip install llama-index-llms-replicate
pip install llama-index-embeddings-huggingface
示例位于docs/examples文件夹中。索引位于indices文件夹中(请参阅下面的索引列表)。
要使用 OpenAI 构建一个简单的向量存储索引:
导入 操作系统
os.environ [ “OPENAI_API_KEY” ] = “您的OPENAI_API_KEY”
从 llama_index.core 导入 VectorStoreIndex 、 SimpleDirectoryReader
documents = SimpleDirectoryReader ( “YOUR_DATA_DIRECTORY “ ) .load_data ( ) index = VectorStoreIndex .from_documents ( documents )
最后编辑:Jeebiz 更新时间:2024-08-05 09:20