AINLP公众号-AINLP最新文章-次幂数据

70后新晋中国科学院院士,任985校长!

最年轻的副部长级大学校长

05月02日

如何在本地部署运行Llama3

Llama3 目前发布了8B和70B两种尺寸huggingface Llama3模型主页:https://h

05月02日

从第一性原理看大模型Agent技术

作者:凡心原文地址:https://zhuanlan.zhihu.com/p/662538702在大模型技术

05月02日

Lite-LLM4Rec:大幅降低用LLM做推荐任务的耗时

论文名称: Rethinking Large Language Model Architectures fo

05月02日

LLM4CS:一种利用LLM提升多轮会话检索的效果的方案

今天分享一篇人大的文章,大型语言模型知道您的会话上下文搜索意图(Large Language Models

05月02日

NLP新赛“自动作文评分2.0”详解,文末包邮送书

领500+Kaggle金牌方案,包邮送图书!

04月30日

大模型 SFT 经验帖

大模型 SFT 经验分享一、为什么大模型需要SFT?微调作为一种技术手段,是在已具备广泛知识基础的大型预训练

04月30日

视觉语言模型详解

视觉语言模型可以同时从图像和文本中学习,因此可用于视觉问答、图像描述等多种任务。本文,我们将带大家一览视觉语

04月30日

COLING24 | GFaiR:基于归结反演的大语言模型逻辑推理系统

论文名称:Towards Generalizable and Faithful Logic Reasonin

04月30日

LLaMA3非常好啊!!!

LLaMA3真的是相当相当炸裂啊!远超过去的体验!看数据Llama3-8B超过Mistra-7B MMLU

04月30日

如何使用LLaMA Factory 微调Qwen1.5

本地部署启动Qwen1.5注意这里使用modelscope来下载模型,如果模型没有下载则会自动启动下载,如果

04月29日

图解大模型计算加速系列:vLLM源码解析3,块管理器(BlockManager)上篇

大家好,本篇我们进入“有趣的”(😊,反复告诉自己它很有趣,那么它一定能变得有趣起来)且“重要的”(这是真得很

04月29日

中国人自己的Llama:Qwen1.5开源110B参数模型

写在前面开源界最近属实是太疯狂了,前有Llama3-70B模型开源,后有Qwen1.5开源千亿(110B)级

04月29日

LLM-Augmented Retrieval--一种新型检索增强框架,数据不够,LLM来凑

提纲1 简介2 LLM-augmented Retrieval 2.1 增强数据表示 2.2 D

04月29日

Bert类模型也具备指令遵循能力吗?

BERT模型,依托Transformer架构及其大规模预训练,为自然语言处理领域带来了深远的影响。BERT模

04月28日

Llama 3技术剖析、微调、部署以及多模态训练

剖析Llama 3的核心技术,讲解如何基于Llama 3进行模型的微调和多模态模型训练和微调。

04月28日

Qwen1.5-110B:首个国产千亿参数开源大模型

01前言近期的大模型开源社区极度活跃,陆续出现了c4ai-command-r-plus、DBRX、Mixtr

04月28日

基于LoRA微调多模态大模型

随着,ChatGPT 迅速爆火,引发了大模型的时代变革。然而对于普通大众来说,进行大模型的预训练或者全量微调

04月28日