当前位置: 首页 > news >正文

湖南建设厅网站证书查询中华建设

湖南建设厅网站证书查询,中华建设,网站服务器怎么选,html网页课程设计报告一 准备工作 下面是构建这个应用程序时将使用的软件工具: 1.Llama-cpp-python 下载llama-cpp, llama-cpp-python [NLP] Llama2模型运行在Mac机器-CSDN博客 2、LangChain LangChain是一个提供了一组广泛的集成和数据连接器#xff0c;允许我们链接和编排不同的模块。可以常…一 准备工作 下面是构建这个应用程序时将使用的软件工具: 1.Llama-cpp-python 下载llama-cpp, llama-cpp-python [NLP] Llama2模型运行在Mac机器-CSDN博客 2、LangChain LangChain是一个提供了一组广泛的集成和数据连接器允许我们链接和编排不同的模块。可以常见聊天机器人、数据分析和文档问答等应用。 3、sentence-transformer sentence-transformer提供了简单的方法来计算句子、文本和图像的嵌入。它能够计算100多种语言的嵌入。我们将在这个项目中使用开源的all-MiniLM-L6-v2模型。 4、FAISS Facebook AI相似度搜索(FAISS)是一个为高效相似度搜索和密集向量聚类而设计的库。 给定一组嵌入我们可以使用FAISS对它们进行索引然后利用其强大的语义搜索算法在索引中搜索最相似的向量。 虽然它不是传统意义上的成熟的向量存储(如数据库管理系统)但它以一种优化的方式处理向量的存储以实现有效的最近邻搜索。 二 LLM应用架构以文档QA为例 假设我们想基于自己部署的Llama2模型构建一个用于回答针对特定文档内容提问的聊天机器人。文档的内容可能属于特定领域或者特定组织内的文档因此不属于任何Llama2进行预训练和微调的数据集。一个直觉的做法是in-context-learning将文档作为Prompt提供给模型从而模型能够根据所提供的Context进行回答。直接将文档作为Context可能遇到的问题是 文档的长度超出了模型的Context长度限制原版Llama2的Context长度为4096个Tokens。对于较长的Context模型可能会Lost in the Middle无法准确从Context中获取关键信息。 因此我们希望在构建Prompt时只输入与用户的问题最相关的文档内容。 以下是构建文档QA应用的常用架构 文档处理与存储将原始文本进行分块 (Splitting)并使用语言模型对每块文本进行embedding得到文本的向量表示最后将文本向量存储在支持相似性搜索的向量数据库中。用户询问和Prompt构建根据用户输入的询问使用相似性搜索在向量数据库中提取出与询问最相关的一些文档分块并将用户询问文档一起构建Prompt随后输入LLM并得到回答。 三 实际使用 LangChain 在上节中描述了以文档QA为例的LLM应用Pipeline架构。LangChain是构建该类大模型应用的框架其提供了模块化组件例如上文图中的Document loader, Text splitter, Vector storage的抽象和实现并支持集成第三方的实现例如可以使用不同第三方提供的Vector Storage服务)。通过LangChain可以将大模型与自定义的数据源结合起来构建Pipeline。 https://github.com/langchain-ai/langchain​github.com/langchain-ai/langchain 构建步骤 我们已经了解了各种组件接下来让逐步介绍如何构建文档问答应用程序。 由于已经有许多教程了所以我们不会深入到复杂和一般的文档问答组件的细节(例如文本分块矢量存储设置)。在本文中我们将把重点放在开源LLM和CPU推理方面。 使用llama-cpp-python启动llama2 api服务 python3 -m llama_cpp.server --model TheBloke--Chinese-Alpaca-2-7B-GGUF/chinese-alpaca-2-7b.Q4_K_M.gguf   --n_gpu_layers 1INFO:     Started server process [63148] INFO:     Waiting for application startup. INFO:     Application startup complete. INFO:     Uvicorn running on http://localhost:8000 (Press CTRLC to quit) 使用LangChain调用本地部署的Llama2 下面的示例将使用LangChain的API调用本地部署的Llama2模型。 from langchain.chat_models import ChatOpenAIchat_model ChatOpenAI(openai_api_key EMPTY, openai_api_base http://localhost:8000/v1, max_tokens256) 由于本地部署的llama-cpp-python提供了类OpenAI的API因此可以直接使用ChatOpenAI接口这将调用/v1/chat/completions API。由于并没有使用真正的OpenAI API因此open_ai_key可以任意提供。openai_pi_base为模型API的Base URL。max_tokens限制了模型回答的长度。 from langchain.chat_models import ChatOpenAIchat_model ChatOpenAI(openai_api_key EMPTY, openai_api_base http://localhost:8000/v1, max_tokens256)from langchain.schema import AIMessage, HumanMessage, SystemMessagesystem_text You are a helpful assistant. human_text1 What is the capital of France? assistant_text Paris. human_text2 How about England?messages [SystemMessage(contentsystem_text), HumanMessage(contenthuman_text1), AIMessage(contentassistant_text), HumanMessage(contenthuman_text2)]chat_model.predict_messages(messages) 这里将演示如何使用LangChain构建一个简单的文档QA应用Pipeline Document Loading  Text SplittingText Embeddings Vector StorageText Retrieval   Query LLM 1 数据加载与处理 Document Loading  Text Splitting 本实验使用llama.cpp的README.md作为我们需要进行询问的文档。LangChain提供了一系列不同格式文档的Loader包括用于加载Markdown文档的UnstructuredMarkdownLoader: UnstructuredMarkdownLoader默认会将文档中的不同Elements各级标题正文等组合起来去掉了#等字符。 RecursiveCharacterTextSplitter是对常见文本进行Split的推荐选择 RecursiveCharacterTextSplitter递归地在文本中寻找能够进行分割的字符默认为[\n\n, \n, , ])。这将尽可能地保留完整的段落句子和单词。 chunk_size: 文本进行Split后每个分块的最大长度所有分块将在这个限制以内chunk_overlap: 前后分块overlap的长度overlap是为了保持前后两个分块之间的语义连续性length_function: 度量文本长度的方法 from langchain.document_loaders import UnstructuredMarkdownLoaderloader UnstructuredMarkdownLoader(./README.md) text loader.load()from langchain.text_splitter import RecursiveCharacterTextSplittertext_splitter RecursiveCharacterTextSplitter(chunk_size 2000,chunk_overlap 400,length_function len,is_separator_regex False ) all_splits text_splitter.split_documents(text)2.矢量存储 Text Embeddings Vector Storage 这一步的任务是将文本分割成块加载嵌入模型然后通过FAISS 进行向量的存储 Vector Storage 这里以FAISS向量数据库作为示例 FAISS基于Facebook AI Similarity Search(Faiss)库 。 pip install faiss-cpu from langchain.embeddings import HuggingFaceEmbeddings # Load embeddings model embeddings HuggingFaceEmbeddings(model_namesentence-transformers/all-MiniLM-L6-v2, model_kwargs{device: cpu}) from langchain.vectorstores import FAISS vectorstore FAISS.from_documents(all_splits, embeddings) vectorstore.save_local(vectorstore/db_faiss)#question How to run the program in interactive mode? #docs vectorstore.similarity_search(question, k1)运行上面的Python脚本后向量存储将被生成并保存在名为vectorstore/db_faiss的本地目录中并为语义搜索和检索做好准备。 3.文本检索与LLM查询 Text Retrieval   Query LLM from langchain.llms import OpenAI from langchain.chat_models import ChatOpenAI from langchain.chains import RetrievalQAchat_model ChatOpenAI(openai_api_key EMPTY, openai_api_base http://localhost:8000/v1, max_tokens256)qa_chain RetrievalQA.from_chain_type(chat_model, retrievervectorstore.as_retriever(search_kwargs{k: 1})) qa_chain({query: How to run the program in interactive mode?}) 构造RetrievalQA需要提供一个LLM的实例我们提供基于本地部署的Llama2构造的ChatOpenAI还需要提供一个文本的Retriever我们提供FAISS向量数据库作为一个Retriever参数search_kwargs{k:1}设置了Retriever提取的文档分块的数量决定了最终Prompt包含的文档内容的数量在这里我们设置为1。 向Chain中传入询问即可得到LLM根据Retriever提取的文档做出的回答。 自定义RetrievalQA的Prompt: from langchain.chains import RetrievalQA from langchain.prompts import PromptTemplatetemplate Use the following pieces of context to answer the question at the end. If you dont know the answer, just say that you dont know, dont try to make up an answer. Use three sentences maximum and keep the answer as concise as possible. Always say thanks for asking! at the end of the answer. {context} Question: {question} Helpful Answer: QA_CHAIN_PROMPT PromptTemplate.from_template(template)qa_chain RetrievalQA.from_chain_type(chat_model,retrievervectorstore.as_retriever(search_kwargs{k: 1}),chain_type_kwargs{prompt: QA_CHAIN_PROMPT} ) qa_chain({query: What is --interactive option used for?}) 结论 本文介绍了如何在MacBook Pro本地环境使用llama.cpp部署ggml量化格式的Llama2语言模型并演示如何使用LangChain简单构造了一个文档QA应用。 References [1] https://github.com/ggerganov/llama.cpp [2] QA over Documents | ️ Langchain 在MacBook Pro部署Llama2语言模型并基于LangChain构建LLM应用 - 知乎 (zhihu.com) 使用GGML和LangChain在CPU上运行量化的llama2 - 知乎 (zhihu.com)
http://www.yutouwan.com/news/265311/

相关文章:

  • 鼎豪网络网站建设游戏是怎么开发出来的
  • 在线注册网站白头鹰网站一天可以做多少任务
  • 苏州企业如何建网站企业网站建设推荐兴田德润
  • 山西太原做企业网站建设的公司html5网页模板免费
  • 高港网站开发制作照片的软件app
  • 锦州网站建设多少钱建设部机关服务中心网站
  • 企业网站模板下载哪家公司强方案计划网站
  • 云教育科技网站建设网站图片少影响seo吗
  • 眉县住房和城市建设局网站特殊教育学校网站建设方案
  • 网站的ico怎么做做微信的微网站费用多少
  • 内蒙古网站建设云聚郑州网站建站网站
  • 网站建设的服务和质量网站如何做前后端分离
  • 住房和城乡建设部文化中心网站企业seo顾问服务
  • 临湘网站建设兼积做调查挣钱网站
  • 网站建设有哪些文件wordpress 下一篇样式
  • 长沙建设局网站建设网站需要电脑配置
  • 江苏鑫圣建设工程有限公司网站开发app费用
  • 用asp做网站需要安装什么软件短视频营销策略有哪些
  • 大连建网站网站制作亿达城市建设官方网站
  • 东莞网站推广优化搜索推广网站建设中需求分析报告
  • 做网站需要什么人员百度热搜榜单
  • 兰州网站制作要多少钱静态网页模板源代码
  • 产品网站设计论文做网站应聘平台
  • 天津做淘宝网站杭州 兼职 网站建设
  • 简述对网站进行评析的几个方面.网页设计与制作教程代码
  • 网站运营方案书广告制作安装工
  • 南阳网站建站公司wordpress 栏目设置
  • 网站排名软件推荐做网站时怎样申请域名
  • 给素材网站做素材方法网站是否备案怎么查询
  • 两学一做知识问答网站高清做网站插图