中量级的InternLM2-Math-20B 则在没有借助任何外部工具的条件下,取得了目前开源模型的最佳成绩,达到与GPT-4
原创 1月前
22阅读
Target:基于LlamaIndex构建自己的RAG知识库,寻找一个问题A在使用LLamaIndex之前InternLM2-Chat-1.8B不会回答,使用LLamaIndex后具备回答问题A的能力。1 前置知识知识检索增强(Retrieval Augmented Generation,RAG):给模型注入新知识的方式,可以简单分为两种方式,一种是内部的,即更新模型的权重,另一个就是外部的方式,
原创 精选 7天前
151阅读
1点赞
基础:使用 InternLM-Chat-7B 模型生成 300 字的小故事。详情可以见我的完成撰写文章:https://blog.51cto.com/morcake/9105322上图为进入的开始界面,下面即可进行问答:熟悉 hugging face 下载功能,使用 huggingface_hub python 包,下载 InternLM-20B 的 con
原创 精选 7月前
339阅读
RAG相关知识 简而言之就是外挂了一个数据库,然后在里面检索相关信息。最大的优势是无需再通过训练就能掌握相关领域的知识 配置相关环境 conda create -n llamaindex python=3.10 conda activate llamaindex conda install pytorch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 p
原创 1月前
64阅读
Task:使用Cli Demo实现InternLM2-Chat-1.8B模型部署,并生成300字小故事。使用LMDeploy完成InternLM-XComposer2-VL-1.8B部署,完成一次图文理解对话。使用LMDeploy完成InternVL2-2B的部署,完成一次图文理解对话。1 Task1使用Cli Demo实现InternLM2-Chat-1.8B模型部署,并生成300字小故事。创建
原创 精选 10天前
192阅读
1点赞
1 配置 opencompass环境git clone -b 0.2.4 https://github.com/open-compass/opencompass pip install -e . -i https://mirrors.163.com/pypi/simple/ pip install -r requirements.txt -i https://mirrors.163.com/pyp
原创 4天前
43阅读
环境准备 conda create -n opencompass python=3.10 conda activate opencompass conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia -y # 注意:一定要先 cd /root
原创 29天前
50阅读
【代码】Internlm_xcomposer2模型结构解读。
原创 2月前
110阅读
是课堂操作笔记
原创 7月前
275阅读
〇 完成结果1 环境准备bash conda create --name personal_assistant --clone=/root/share/conda_envs/internlm-base conda activate personal_assistant mkdir /root/personal_assistant && cd /root/personal_ass
原创 7月前
176阅读
使用InternStudio中的 A100(1/4) 机器和InternLM-Chat-7B模型部署一个智能对话 Demo。一、环境准备进入 conda 环境:bash # 请每次使用 jupyter lab 打开终端时务必先执行 bash 命令进入 bash 中使用以下命令从本地克隆一个已有的 pytorch 2.0.1 的环境:conda create
原创 7月前
317阅读
〇、完成结果这里最终完成结果如下:我们可以看到它可以很好地回答InternLM是什么。这一系列的内容是从我们从InternLM开源仓库里面所得到的内容,而不是大模型本身所具有的。即这里一整个过程来使模型能够调用我们本地的个人数据,从而实现一个个人知识库的组成。详细的搭建过程在本文接下来详细的讲解。先简要介绍目前的核心大模型的应用开发范式:输入文本转化为向量,然后在向量数据库中匹配相似文本 ,作为p
原创 7月前
635阅读
3评论
前言作者:DefTruth,AI Infra,暨南大学(JNU) 本文主要是记录一下关于多模态大模型InternLM/InternVL系列的一些要点的理解。还是那句话,好记性,不如烂笔头。本文当成个人笔记用,行文风格和先前写的LLaVA系列一致。本文的重点是讲解多模态模型InternVL 1.5,但是InternVL 1.5选择了InternLM2作为LLM底座,以及使用InternViT-6B作
原创 精选 1月前
579阅读
openMind工具,让模型微调推理更丝滑
9 月 20 日,上海人工智能实验室推出了书生·浦语大模型(InternLM)200 亿参数版本 InternLM-20B。它具备优异的综合性能
转载 8月前
433阅读
煤矿安全大模型:微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答
数学推理能力是大语言模型(LLMs)抽象推理能力的一个重要体现。近年来,随着深度学习技术的不断进步,LLMs在数学推理任务题上进行监督式微调。
作者 | 芒果、Python引言:数学推理与大语言模型的新突破数学推理能力是大语言模型(LLMs)抽象推理能力的一个重要体现。近年来,随着深度学习技术的不断进步,LLMs在数学推理任务上取得了显著的进展。从小学级别到高中级别的数学问题,通过链式推理(chain-of-thought reasoning)或程序式推理(program-of-thought reasoning),LLMs展现出了解
NL2SQL实践系列(2):2024最新模型实战效果(Chat2DB-GLM、书生·浦语2、InternLM2-SQL等)以及工业级案例教学
原创 4月前
146阅读
测评结果使用 OpenCompass 评测 InternLM2-Chat-7B 模型在 C-Eval 数据集上的性能:python run.py --datasets ceval_gen --hf-path /share/temp/model_repos/internlm-chat-7b/ --tokenizer-path /share/temp/model_repos/internlm-chat
原创 精选 7月前
810阅读
  • 1
  • 2