将日常科研讨论话题整理如下,以供参考
Coming Soon...
Coming Soon...
多模态幻觉通常指"The discrepancy between generated text response and provided visual content"。简单地说,指模态之间的不一致性。(导致忽略了事实正确性)例如,在图像标题生成任务中,生成的标题包含了图像中不存在的事物。
现阶段,多模态幻觉可被分为以下几类:
- 1.Category(类别幻觉):模型“发现”了图中不存在的物体
- 2.Attribute(属性幻觉):模型对于图中的物体的属性(属性包括,形状,颜色,数量等)有着错误的理解
- 3.Relation(关系幻觉):模型对于图中物体的关系没有正确理解。例如,模型将茶几和沙发的关系理解为茶几放在沙发上
论文列表更多基础知识可见于(参考综述)
- 🔥话题:多模态幻觉
标题 | 类型 | 会议 | 日期 |
---|---|---|---|
Hallucination of Multimodal Large Language Models: A Survey [paper][project] | 综述 | arxiv | 2024-04-29 |
A Survey on Hallucination in Large Vision-Language Models [paper][project] | 综述 | arxiv | 2024-05-06 |
Evaluating Object Hallucination in Large Vision-Language Models [paper][project] | 多模态幻觉评估 | EMNLP2023 | 2023-05-17 |
MME: A Comprehensive Evaluation Benchmark for Multimodal Large Language Models [paper][project] | 多模态幻觉评估 | arxiv | 2023-06-23 |
Aligning Large Multimodal Models with Factually Augmented RLHF [paper][project] | 多模态幻觉缓解,多模态幻觉评估 | arxiv | 2023-09-25 |
OPERA: Alleviating Hallucination in Multi-Modal Large Language Models via Over-Trust Penalty and Retrospection-Allocation [paper][project] | 多模态幻觉缓解 | CVPR 2024 Highlight | 2023-09-29 |
Less is More: Mitigating Multimodal Hallucination from an EOS Decision Perspective [paper][project] | 多模态幻觉缓解 | ACL 2024 | 2024-02-22 |
Coming Soon...
Coming Soon...
基础知识
:
- Scaling Laws 是指模型性能(如损失、精度)与模型规模(如参数数量
$N$ 、训练数据量$D$ 、计算资源$C$ )之间的经验性关系。关键要点包括:
- 参数数量
$N$ :模型性能随参数增加提升,但增幅逐渐减小。- 数据量
$D$ :更多数据能提升大模型性能。- 计算量
$C$ :更多计算资源能带来更好的训练效果。- 损失函数
$L$ :随着资源投入增加,损失函数呈现次幂缩减趋势。- 应用:Scaling Laws 主要用于指导模型的设计与训练,使得资源的投入能够带来最佳的性能提升。比如通过 Scaling Laws,研究人员可以预估增加参数、数据或计算是否会有效提升模型性能,从而更合理地分配资源,推动开发更大规模的模型。
论文列表
- Scaling Laws不仅是一种针对大模型训练的理论积累,还是一种实践方法,可以迁移到各种需要估计数据量、数据比例、参数量(或其他概念)的大模型训练场景(即,找自己研究场景里的Scaling Laws)。
- 话题:Scaling Laws与实用推广
标题 | 类型 | 会议 | 日期 |
---|---|---|---|
Scaling laws for neural language models [paper] | Scaling Laws | OpenAI技术报告 | 2020-01-23 |
Training Compute-Optimal Large Language Models [paper] | 有关大模型参数量,数据量和计算量的Scaling Laws | NIPS2022 | 2022-03-29 |
Scaling Laws with Vocabulary: Larger Models Deserve Larger Vocabularies [paper] [project] | 有关大模型词表的Scaling Laws | arxiv | 2024-07-18 |
D-CPT Law: Domain-specific Continual Pre-Training Scaling Law for Large Language Models [paper] | Continual Pre-Training的Scaling Laws | arxiv | 2024-06-03 |
Observational Scaling Laws and the Predictability of Language Model Performance [paper] [project] | 在多个Model Family,多个Benchmark上总结的通用Scaling Laws | arxiv | 2024-05-17 |
基础知识
:
- 概念简介:由于大语言模型参数量十分庞大,当将其应用到下游任务时,微调全部参数需要相当高的算力。为了节省成本,研究人员提出了多种参数高效(Parameter Efficient)的微调方法,旨在仅训练少量参数使模型适应到下游任务。
- 参数高效方法分类:当前应用最频繁的参数高效微调方法当属LoRA及其变体(如QLoRA,AdaLoRA等)。除此之外,典型的参数高效微调方法还有基于Adapter的方法(如Adapter tuning)和基于前缀微调的方法(如Prefix Tuning)
- 典型参数高效微调方法举例——LoRA,是当前被广泛应用于LLM训练的参数高效微调方法。LoRA方法流程为:固定预训练模型参数不变,在原本权重矩阵旁路添加低秩矩阵的乘积作为可训练参数(见下图),用以模拟模型参数的变化量。
- 模型参数变化量的计算公式为:
$W = W_0 + B \cdot A$ (其中$B$ ,$A$ 为低秩矩阵。初始化时,矩阵$A$ 通过高斯函数初始化,矩阵$B$ 为零初始化,使得训练开始之前旁路对原模型不造成影响)
论文列表
- LoRA在实际微调大模型时具有良好效果,并且由于参数合并,不会带来额外推理时延。后续的相关工作也尝试改进LoRA,将其应用到更广泛的实际任务中。
- 🔥话题:复用和组合LoRA模组 for few/zero shots learning
标题 | 类型 | 会议 | 日期 |
---|---|---|---|
Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than In-Context Learning [paper][project] | Adapter Tuning, 多任务学习 | NIPS2022 | 2022-08-26 |
Combining Parameter-efficient Modules for Task-level Generalisation [paper][project] | LoRA组合, 多任务学习 | EACL2023 | 2023 |
LoraHub: Efficient Cross-Task Generalization via Dynamic LoRA Composition [paper][project] | LoRA组合, 多任务学习 | COLM2024 | 2023-07-25 |
Towards Modular LLMs by Building and Reusing a Library of LoRAs [paper] | LoRA组合, 多任务学习 | ICML2024 | 2024-05-18 |
Learning to Route Among Specialized Experts for Zero-Shot Generalization [paper] [project] | LoRA组合, 多任务学习 | ICML2024 | 2024-02-08 |
- 🔥话题:PEFT与MoE的结合:Mixture of LoRA Experts
标题 | 类型 | 会议 | 日期 |
---|---|---|---|
LoRAMoE: Alleviate World Knowledge Forgetting in Large Language Models via MoE-Style Plugin [paper][project] | LoRA+MoE缓解灾难性遗忘 | ACL2024 | 2023-12-15 |
Higher Layers Need More LoRA Experts [paper][project] | LoRA+MoE探究专家冗余和专家数量分配问题 | arxiv | 2024-02-13 |
Mixture of LoRA Experts [paper] | LoRA+MoE探究更好地组合多个训练好的LoRA | ICLR2024 | 2024-04-21 |
Mixture of Cluster-conditional LoRA Experts for Vision-language Instruction Tuning [paper] [project] | LoRA+MoE缓解多模态大模型指令调优的多任务数据冲突问题 | arxiv | 2023-12-19 |
LLaVA-MoLE: Sparse Mixture of LoRA Experts for Mitigating Data Conflicts in Instruction Finetuning MLLMs [paper] | LoRA+MoE缓解多模态大模型指令调优的多任务数据冲突问题 | arxiv | 2024-01-29 |
Coming Soon...
基础知识
:
- 概念简介:大语言模型的落地应用受到其较大的推理开销的限制,对部署资源、用户体验、经济成本都带来了巨大挑战。例如,将LLaMA-2-70B模型进行部署推理,至少需要6张RTX 3090Ti显卡或2张NVIDIA A100显卡,以部署在A100显卡上为例,该模型生成512长度的词块(token)序列需要耗时超过50秒。因此,设计优化大语言模型推理开销的技术,成为许多研究的重要目标。
- 大语言模型在实际部署应用中,人们通常关注其延时、吞吐、功耗和存储,而在大语言模型推理过程中,有三个重要因素会直接影响上述效率指标,分别是计算开销(Computational Cost)、访存开销(Memory Access Cost)和存储开销(Memory Cost)。现有综述总结出影响上述指标的三点根本因素,分别为:
- 模型规模:主流大语言模型庞大的模型规模会导致巨大的计算量、访存量和存储量。
- 注意力算子:作为大语言模型的核心算子,注意力算子具有与输入长度呈平方关系增长的计算和存储复杂度。
- 解码方式:主流的自回归解码方式导致极低的计算-访存比和硬件利用率,同时动态增长的KV cache(如不了解KV cache,可参考此简介)会导致碎片化的内存使用,对访存开销和存储开销带来增长。
- 针对上述因素,从推理高效角度出发的现有技术可大致分为三类(分类依据):
- 数据层优化技术:(技术典型:Prompt压缩)指通过优化输入提示词或规划模型输出内容优化推理效率。这类优化技术通常不需要修改模型本身,因此避免了大量的模型训练或微调开销;
- 模型层优化技术:(技术典型:模型剪枝)指通过设计高效的模型结构或模型压缩技术优化推理效率。这类技术通常需要对模型进行预训练或微调来恢复任务精度,同时通常对输出结果是有损的;
- 系统层优化技术:(技术典型:算子优化,猜测解码)指通过优化推理引擎或服务系统优化推理效率。这类技术通常不需要额外的模型训练开销,同时可以保证对输出结果是无损的。
论文列表更多基础知识可见于(参考综述)
- 🔥话题:使用超网络生成PEFT模块(涉及内容归属:数据层优化技术)
- 话题简介:超网络(Hypernetworks)表示用于产生网络参数的网络。LLM推理速度受限于冗长的指令和少样本示例。用超网络为instruction/few-shot demonstration生成PEFT模块,则无需每次处理输入prompt。(需注意,此话题下的技术可以按多种理论视角解读,既可以视为一种能增益大模型推理效率的soft prompt技术,也可以视为一种参数高效的大模型优化方法。)
标题 | 类型 | 会议 | 日期 |
---|---|---|---|
HyperPrompt: Prompt-based Task-Conditioning of Transformers [paper] | 多任务学习 | ICML2022 | 2022-03-01 |
Prototype-based HyperAdapter for Sample-Efficient Multi-task Tuning [paper][project] | 多任务学习 | EMNLP2023 | 2023-10-18 |
HyperTuning: Toward Adapting Large Language Models without Back-propagation [paper] | 大模型参数高效训练 | ICML2023 | 2022-11-22 |
HINT: Hypernetwork Instruction Tuning for Efficient Zero- & Few-Shot Generalisation [paper][project] | 大模型推理高效 | ACL2023 | 2022-12-20 |
- 🔥话题:从稀疏性角度看LLM推理加速(涉及内容归属:模型层优化技术,系统层优化技术)
标题 | 类型 | 会议 | 日期 |
---|---|---|---|
Deja Vu: Contextual Sparsity for Efficient LLMs at Inference Time [paper][project] | 大模型推理高效 | ICML2023 | 2023-10-26 |
Sheared LLaMA: Accelerating Language Model Pre-training via Structured Pruning [paper][project] | 大模型剪枝 | ICLR2024 | 2023-10-10 |
Fluctuation-based Adaptive Structured Pruning for Large Language Models [paper][project] | 大模型剪枝 | AAAI2024 | 2023-12-19 |
PERP: Rethinking the Prune-Retrain Paradigm in the Era of LLMs [paper][project] | 大模型剪枝 | arxiv | 2023-12-23 |
LLaMA-MoE: Building Mixture-of-Experts from LLaMA with Continual Pre-training [paper][project] | LLM MoE | arxiv | 2024-06-24 |
- 🔥话题:KVcache之异构缓存(涉及内容归属:系统层优化技术)
标题 | 类型 | 会议 | 日期 |
---|---|---|---|
InfiniGen:Efficient Gerative Inference of Large Language Models with Dynamic KV Cache Management [paper] | KV Cache管理 | OSDI2024 | 2024-06-28 |
PQCache: Product Quantization-based KVCache for Long Context LLM Inference [paper][project] | KV Cache管理 | arxiv | 2024-07-01 |
InfLLM: Unveiling the Intrinsic Capacity of LLMs for Understanding Extremely Long Sequences with Training-Free Memory [paper][project] | 借助CPU管理KV Cache | arxiv | 2024-05-28 |
PowerInfer: Fast Large Language Model Serving with a Consumer-grade GPU [paper][project] | GPU-CPU混合推理引擎 | SOSP2024 | 2023-12-16 |
MagicPiG: sParse Inference enGine for LLM [paper][project] | GPU-CPU混合推理引擎 | arxiv | 2024-10-28 |
Coming Soon...
Coming Soon...
Coming Soon...
Coming Soon...
论文列表- 🔥话题:LLM的幻觉分析、常识理解与指令微调分析
标题 | 类型 | 会议 | 日期 |
---|---|---|---|
On Large Language Models' Hallucination with Regard to Known Facts [paper] | LLM幻觉分析 | NAACL2024 | 2024-03-29 |
Knowing What LLMs DO NOT Know: A Simple Yet Effective Self-Detection Method [paper] | LLM幻觉分析 | NAACL2024 | 2023-10-27 |
R-Tuning: Instructing Large Language Models to Say 'I Don't Know' [paper] | LLM幻觉分析 | NAACL2024 | 2023-11-16 |
ChatGPT is a Knowledgeable but Inexperienced Solver: An Investigation of Commonsense Problem in Large Language Models [paper] | LLM常识理解 | COLING2024 | 2023-03-29 |
Say What You Mean! Large Language Models Speak Too Positively about Negative Commonsense Knowledge [paper] [project] | LLM常识理解 | ACL2023 | 2023-05-10 |
Understanding the Capabilities and Limitations of Large Language Models for Cultural Commonsense [paper] | LLM常识理解 | NAACL2024 | 2024-05-07 |
From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [paper] [project] | LLM指令微调 | NAACL2024 | 2023-09-30 |
表格作为一种结构化文本内容,被广泛应用于存储实际生产中的各项重要数据信息。为了获取规模庞大又极富价值的表格数据,工业界开始逐步推动表格智能技术的发展。
表格智能(Table Intelligence)技术旨在通过自动理解、处理和分析表格数据来满足不同的用户需求。表格智能会涉及到多种任务,比如最传统的表格问答、和数据库密切相关的NL2SQL、表格处理(增删改查)、高阶数据分析(BI需求)等。在这些技术中,基于大模型的表格智能技术是当前的关注热点。
基于大模型的表格智能技术包含多个方向,比如通过提示大模型(Prompting)的方式完成表格任务,训练专门理解表格数据的大模型(Training)等。本部分将总结并展示各个方向下的部分论文
论文列表😎 更多关于面向表格智能的LLM(大型语言模型)相关文献可见于Awesome-Tabular-LLMs
- 🔥话题:面向表格智能的Agent技术
标题 | 类型 | 会议 | 日期 |
---|---|---|---|
API-Assisted Code Generation for Question Answering on Varied Table Structures [paper] | 针对多种表格结构的Prompt方法 | EMNLP2023 | 2023-10-23 |
TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [paper] | 考虑了长表格场景的表格Prompt处理方法 | arxiv | 2023-12-14 |
SheetCopilot: Bringing Software Productivity to the Next Level through Large Language Models [paper] [project] | 首个处理Excel表格的Agent框架 | NIPS2023 | 2023-05-30 |
SheetAgent: Towards A Generalist Agent for Spreadsheet Reasoning and Manipulation via Large Language Models [paper] | 关注多步推理表格任务的Agent框架 | ICML2024 | 2024-03-06 |
Coming Soon...
Coming Soon...
近年来,大语言模型在自然语言处理领域取得显著进展,但其快速生成文本的能力也带来了信息传播和知识产权方面的挑战。文本水印技术通过嵌入可识别的标记来实现内容追踪和来源归属,是解决大语言模型滥用问题的有效方法。
来自ChatGPT的例子
在生成式文本中嵌入水印的技术往往隐蔽且复杂,通常不会对文本的表面含义产生显著影响。因此,我可以通过简单的例子演示可能的差异,但需要注意的是,实际的水印嵌入和检测通常需要更复杂的算法。
The weather today is sunny with a slight breeze, perfect for a walk in the park.
The weather today is bright with a slight breeze, making it ideal for a walk in the park.
- 无水印文本(示例 1):完全自然生成的文本,没有经过任何特殊处理。
- 有水印文本(示例 2):在不改变整体语义的前提下,某些词语被替换。例如,
sunny
被替换为bright
,perfect
被替换为ideal
。这些微小的变化可以被特定的水印算法识别,帮助确定该文本是否源自特定模型。
更多基础知识可见于(参考综述)
论文列表更多文本水印工具可见于(MarkLLM)
- 🔥话题:大语言模型的文本水印
标题 | 类型 | 会议 | 日期 |
---|---|---|---|
CodeMark: Imperceptible Watermarking for Code Datasets against Neural Code Completion Models [paper] | 文本水印 | FSE2023 | 2023-08-28 |
A Watermark for Large Language Models [paper][project] | 大模型文本水印 | ICML2023 | 2023-01-24 |
Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [paper][project] | 大模型文本水印 | ICLR2024 | 2023-07-29 |
UNBIASED WATERMARK FOR LARGE LANGUAGE MODELS [paper][project] | 大模型文本水印 | ICLR2024 Spotlight | 2023-09-22 |
SemStamp: A Semantic Watermark with Paraphrastic Robustness for Text Generation [paper][project] | 大模型文本水印 | NAACL2024 | 2023-10-06 |
Watermarks in the Sand: Impossibility of Strong Watermarking for Generative Models [paper][project] | 大模型文本水印 | ICML2024 | 2023-11-07 |
论文列表近期的相关工作将大模型引入推荐系统,并通过特征工程、特征编码、打分排序和流程控制来提升推荐系统的表现。然而,大模型可能为推荐系统带来的安全风险(如鲁棒性不足、偏见等)也随之增加,这需要引起学界和业界更多的关注。
- 🔥话题:可信大模型推荐系统
标题 | 类型 | 会议 | 日期 |
---|---|---|---|
Stealthy Attack on Large Language Model based Recommendation [paper][project] | 大模型推荐系统安全&鲁棒 | ACL2024 | 2024-02-18 |
Item-side Fairness of Large Language Model-based Recommendation System [paper][project] | 大模型推荐系统公平 | WWW2024 | 2024-02-23 |
RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [paper][project] | 大模型推荐系统可解释性 | SIGKDD2024 | 2023-11-18 |
论文列表目前大模型的主流架构均参考Transformer实现。然而,Transformer的架构设计本身存在不足。比如,Transformer架构内注意力机制的计算复杂度过高,会限制其在长文本场景下的应用。当前,部分工作(如Mamba)尝试从模型架构出发,缓解这一问题。
- 🔥话题:Mamba模型:状态空间模型的前世今生
标题 | 类型 | 会议 | 日期 |
---|---|---|---|
Mamba: Linear-Time Sequence Modeling with Selective State Spaces [paper][project] | 大模型架构 | arxiv | 2023-12-01 |
Jamba: A Hybrid Transformer-Mamba Language Model [paper][project] | 大模型架构 | arxiv | 2024-03-28 |
Jamba-1.5: Hybrid Transformer-Mamba Models at Scale [paper][project] | 大模型架构 | arxiv | 2024-08-22 |