前言 在利用高德地图进行开发时,我们经常需要使用不同的API来实现特定的功能。为了帮助开发者快速定位所需API并掌握正确的使用方法,本文将以可视化任意公交站点路线为例,分享相关经验。 根据需求粗略匹配参考示例 在开始写代码我都会思考一下该功能的实现逻辑是什么: 1、通过什么方式确定站点的位置?是传入定位信息还是用浏览点击来搜索附近站点 2、如何获取到站点和线路的有关信息?这里用到哪些方法,返回什么
在本节提到线性模,我第一反应是我学过的线性代数。曾经学过的简单的数学概念如线性方程被演化成了复杂而强大的工具,用于解决现实世界中的预测问题。这里不仅解释了线性模型的基础原理,还探讨了如何通过添加非线性组件如ReLU函数或Sigmoid函数,将模型提升到一个新的层次。 线性模型的局限性 线性模型它假设输入变量与输出之间存在直接的线性关系。然而,实际数据往往更加复杂,具有周期性、非线性等特性。在实际应
本节课主要是通过案例了解机器学习的概念 什么是机器学习 顾名思义,机器具备有学习的能力。与人类的基于直觉、经验、观察和推理的学习过程不同,机器学习依赖于算法和统计模型从数据中自动学习模式,过大量的输入数据来训练模型,优化参数,从而实现对未知数据的预测或分类。由此可以看出,机器学习是建立在数学运算之上的,也就是为什么会说机器学习就是让机器具备找一个函数的能力 案例 首先举例一个预测播放量的例子,将机
环境准备 conda create -n opencompass python=3.10 conda activate opencompass conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia -y # 注意:一定要先 cd /root
微调相关 微调(fine-tuning)是一种基于预训练模型,通过少量的调整(fine-tune)来适应新的任务或数据的方法。 微调是在预训练模型的基础上,将模型中一些层的权重参数进行微调,以适应新的数据集或任务。 预训练模型部分已经在大规模数据上得到了训练,它们通常是较为通用且高性能的模型,因此可以很好地作为新任务的起点。微调可以加快模型的收敛速度,降低模型过拟合的风险,并在不消耗过多计算资源
RAG相关知识 简而言之就是外挂了一个数据库,然后在里面检索相关信息。最大的优势是无需再通过训练就能掌握相关领域的知识 配置相关环境 conda create -n llamaindex python=3.10 conda activate llamaindex conda install pytorch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 p
前言 由于我在旅游的时候很喜欢探索和了解当地的历史文化,特别是建筑,商铺,公园等等,这些地名感兴趣的我都会习惯去网上搜索有关百科来看,或者去询问AI大模型有关信息。这一过程的确存在些许不方便,于是灵光一闪,能不能将地图上的poi传入,让大模型输出有关该poi的相关信息呢?说干就干,开发的流程自然也就是要从地图上获取到poi信息接入大模型API即可。 地图准备 根据高德地图文档的地图 JS API
本节的内容主要是如何学会提示词工程 提示设计框架 CRISPE参考:ChatGPT3 提示工程 Capacity and Role (能力与角色):希望 ChatGPT 扮演怎样的角色。 Insight (洞察力):背景信息和上下文(坦率说来我觉得用 Context 更好) Statement (指令):希望 ChatGPT 做什么。 Personality (个性):希望 ChatGPT 以什么
本关是部署1.8模型的部署 准备步骤 创建开发机和安装相关依赖来创建环境,需要用到以下命令 # 创建环境 conda create -n demo python=3.10 -y # 激活环境 conda activate demo # 安装 torch conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorc
书生大模型实战营第0节课-Python关卡任务 1.任务一 请实现一个wordcount函数,统计英文字符串中每个单词出现的次数。返回一个字典,key为单词,value为对应单词出现的次数。 这里有两种实现方法,一开始就想到的列表方法,但是正则表达式部分是忘了 import re def wordcount(text): """ 统计给定文本中每个单
书生大模型实战营第0节课-Linux关卡任务 1.完成SSH连接与端口映射并运行hello_world.py 2.将Linux基础命令在开发机上完成一遍 3.使用 VSCODE 远程连接开发机并创建一个 conda环境 4.创建并运行文件test.sh
数学建模第五章 进化计算与群体智能 看到这个标题时候我有点疑惑,但很快想起来三体里面的魏成曾经讲过的进化算法,核心就是优胜劣汰那这在算法中如何实现是本节需要认真学习的内容 遗传算法 遗传算法简言以概之就是 思想本质上还是一个搜索。从一堆可行解里面搜索最优解,没有方向漫无目的的检索叫暴力搜索,有方向的才叫启发式搜索。遗传算法的方向就是进化 这里用到求函数极值作为例子 $$F(x, y) = 10
数学建模第三章 函数极值和规划 本节课内容将结合线性规划和numpy库的深度使用,探讨数学建模竞赛中约束条件下如何求最值 线性规划与线性代数 之所以还在中学学过的线性规划,是因为当时还没有新高考,是必考内容,不然现在对这个肯定很陌生。求解这个线性规划最麻烦也最常用的方法是画面区域,然后带入求解。当到了数学建模这里,这样的方法肯定是行不通的,因为约束条件已经不是几个方程那么简单,所以要用到数学工具线
数学建模第二章--微分方程和动力系统 极限,导数,微分,总是让人想起被高数支配的恐惧,但这又是数学建模当中不得不攀的高峰。第二节讲的是微分方程的应用,让苦学多年的高数再一次派上用场。 微分方程简单回顾 微分方程在所有理工科的应用屡见不鲜,在开始学习之前我对着章节的目录回顾一下自己大脑还有多少这方面的知识 微分方程通解与特解,分离变量和齐次 一阶和二阶微分方程 在理解和复习的基础之上,就要学会怎么
OpenCompass介绍 上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系 “司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。其主要特点如下: 开源可复现:提供公平、公开、可复现的大模型评测方案 全面的能力维度:五大维度设计,提供 70+ 个数据集约 40 万题的的模型评测方案,全面评估模型能力 丰富的模型支持:已支持 20+ Huggi
概述 Lagent是一个轻量级的开源智能体框架,主要用于构建基于大型语言模型(LLM)的代理。这个框架允许用户高效地开发和部署各种类型的智能体,如聊天机器人、搜索引擎、代码生成器等。 Lagent提供了一系列工具和功能,以增强大型语言模型的能力,使得开发者可以更容易地将这些模型转化为实际可用的智能体。例如,它支持多种经典的智能体范式,如AutoGPT和ReAct,并提供了如Arxiv这样的工具来
XTuner 微调个人小助手认知笔记 本节课内容是XTuner 这款简单易上手的微调工具包来对模型进行微调 xtuner 介绍 XTuner是一个由InternLM团队开发的高效、灵活、全能的轻量化大模型微调工具库,主要用于多种大模型的高效微调,包括InternLM和多模态图文模型LLaVa,还支持多种层级硬件的适配,可执行增量预训练、指令微调、工具类指令微调等任务类型 复现过程 环境安装 创建虚
XTuner 微调个人小助手认知
为什么要进行量化部署 因为大模型在部署时面临以下困难 而业内常见的解决方法有模型剪枝,知识蒸馏还有本节讲的量化 LMDeploy的优势 LMDeploy部署 步骤依旧是创建虚拟环境,安装LMDeploy,然后是下载模型,这里先是transformer的库运行模型,然后才是用LMDeploy来运行,通过比较这两个模型的运行速度,但感知不太明显 LMDeploy模型量化(lite) 常见的 LL
以命令行方式与 InternLM2-Chat-1.8B 模型对话 设置KV Cache最大占用比例为0.4,开启W4A16量化,以命令行方式与模型对话。 屏幕截图 2024-04-17 113015.png
RAG搭建智能助理第三节课笔记 概述 这节课主要讲了RAG在大模型的应用,难度比较大。RAG(Retrieval Augmented Generation)技术,通过检索与用户输入相关的信息片段,并结合外部知识库来生成更准确、更丰富的回答。解决 LLMs 在处理知识密集型任务时可能遇到的挑战, 如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成本、实现外部记忆。 而其中
RAG搭建智能助理作业第三节课 茴香豆 Web 版中创建自己领域的知识问答助手 在 InternLM Studio 上部署茴香豆技术助手
浦语大模型趣味 Demo笔记 任务列表 部署 InternLM2-Chat-1.8B 模型进行智能对话 部署实战营优秀作品 八戒-Chat-1.8B 模型 部署大模型InternLM2-Chat-1.8B过程 首先是创建开发机和创建虚拟环境,并且安装必备的依赖库,这个过程耗时较长 下载大模型 将课程文档中复制代码,然后再终端运行命令 python /root/demo/download_mi
##书生·浦语大模型全链路开源体系 ###介绍 开篇介绍了通用大模型发展历程以及书生浦语的开源历程,并且展示了目前浦语大模型的体系,分为7B和20B两个规格,每个规格包含三个版本,可根据实际需求进行选择 面对现在百花齐放的大模型,InternLM有以下亮点 其中最令我眼前一亮的特性是工具的调用,支持多类型文本输出以及多模态 ###应用 通过介绍通用大模型的应用流程,可以看出书生浦语在这方
本节课主要是如何将大模型变得轻量化以及相关前端部署进行离线转换得到相关文件运行后查看接口此时显存占用量化后显存占用理论
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号