这是一篇给新手的「从0手搓AI机器人」教程
后面计划开始写RAG系列了,前面的坑也会陆续填的。本节6.1.1聊聊Al搜索,非技术向的,6.1.2~6.1.6 是RAG技术向的,大家按需取用即可。
近年来,语言模型已经完成了向“预训练+微调/提示”范式的迁移,在这个范式下,预训练阶段要解决的关键问题是借助大规模语料
努力用这一万字,把Transformer相关知识讲明白......
上周LLM圈的大事件,莫过于LLaMa 3.1和 Mistral Large 2这两个开源模型的发布。本文对LLaMa 3进行技术分析
算力是AI发展的驱动力,大模型时代更要格外关注算力。目前的大模型是个重资产行业,底层竞争在于半导体产业,AI的
大语言模型的训练主要包括哪几个阶段?每个阶段需要的数据、算力、训练方式、产出模型分别是什么? 每个阶段的训练难点
今天开始计划开启一个系列 《带你自学大语言模型》。该系列的落脚点是“自学”和“大语言模型”,二者不分伯仲,因为我不想只做
本文脉络:【01】引言【02】对AI不同态度的四类人【03】为什么写这篇文章【04】普通人在AI时代如何破局的思考。
这篇是论文解读《Attention Is All You Need》,是一篇由Google Brain团队于2017年提出的论文,它引入了一种新的神经网络架构——Transformer。而ChatGPT所基于的GPT模型,其核心就是这个Transformer架构,所以它的重要程度是不言而喻的。
关于AI Agents的研究,有两篇综述性文章值得关注,可以说是涵盖了目前AI Agents的所有研究成果,对于对此领域感兴趣的人来讲,可以
我是陌小北,一个正在研究硅基生命的、有趣儿的碳基生命。每周日20:00,准时解读每周AI大事件。
每周日20:00,准时解读每周AI大事件。
这一周,国外各厂真是不让我们消停儿过年呐,新闻一个个跟下饺子似的,冷不丁还炸锅一两个。这里是陌小北,每周日解读每周AI大事件。
本文脉络:1、浅谈2月15日及2024年三家发布的产品;2、三家AGI路线的异同分析;3、用三国视角浅析当前三家格局和策略;4、陌小北对于AGI的一些看法。
这里是陌小北,每周日解读每周AI大事件。本周热点:Anthropic 最强模型 Claude 3发布 | OpenAI“宫斗”调查结果公布 | 阿里已注资五家大模型独角兽
我是陌小北,每月不定时更新前一个月AI领域科研新进展,拿走不谢,欢迎提建议。目前的分类包括:LLM研究、Agent、多模态、特定领域应用、世界模型。内容较多所以每个相对简略。
这里是陌小北,每周日解读每周AI大事件。本周热点:OpenAI语音引擎15秒复刻人声 | 阿里开源MoE架构大模型 | 马斯克发布Grok-1.5
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号