LlamaIndex (GPT Index) 是 LLM 应用程序的数据框架。使用 LlamaIndex 进行构建通常涉及使用 LlamaIndex 核心和一组选定的集成(或插件)。有两种方法可以开始使用 Python 中的 LlamaIndex 进行构建:

LlamaIndex Python 库具有命名空间,因此包含 import 语句core意味着正在使用核心包。相反,不包含 import 语句core意味着正在使用集成包。

使用示例

# custom selection of integrations to work with core
pip install llama-index-core
pip install llama-index-llms-openai
pip install llama-index-llms-replicate
pip install llama-index-embeddings-huggingface

示例位于docs/examples文件夹中。索引位于indices文件夹中(请参阅下面的索引列表)。

要使用 OpenAI 构建一个简单的向量存储索引:

导入 操作系统

os.environ [ “OPENAI_API_KEY” ] = “您的OPENAI_API_KEY”

从 llama_index.core 导入 VectorStoreIndex 、 SimpleDirectoryReader

documents = SimpleDirectoryReader ( “YOUR_DATA_DIRECTORY “ ) .load_data ( ) index = VectorStoreIndex .from_documents ( documents )

作者:Jeebiz  创建时间:2024-07-26 23:22
最后编辑:Jeebiz  更新时间:2024-08-05 09:20