- Published on
论文笔记系列
欢迎来到论文笔记系列!这里是我对各种精选学术论文的深度解读,包含理论分析与代码实现,帮助大家快速理解前沿技术。
本系列包含以下文章:
机器学习平台
- 【论文笔记】001 A TensorFlow-Based Production-Scale Machine Learning Platform
- 来自 Google 团队在 KDD 2017 的论文,主要介绍 TFX 平台的整体思路。该平台用于机器学习模型训练和部署,包括 Learner、模型分析与验证、以及部署基础设施等核心组件。
实时竞价广告
- 【论文笔记】002 Optimal RealTime Bidding for Display Advertising
- 本文把程序化竞价当做是一个函数优化问题,提出 optimal bid 与 impression level 特征存在非线性关系,更倾向于竞价得到更多的展示,而不是只专注于少量高价值的展示。
- 【论文笔记】004 Feedback Control of Real-Time Display Advertising
- 本文主要介绍了在实时广告投放中的流量控制问题,该技术广泛应用在程序化广告中。简单来说就是依据实时的投放反馈数据,对流量进行动态调整,以达到投放速度的均匀稳定,现在非常流行的 OCPA/OCPM 等方法背后都离不开这一算法。
- 【论文笔记】004e Feedback Control of Real-Time Display Advertising 代码解析
- 网上的文章要么偏工程,要么偏学术,如何将论文中的成果应用到工程上的文章相对偏少。本文将通过介绍分析论文中的试验代码,将工程和学术连接起来。
神经网络架构搜索
- 【论文笔记】003 Auto-Keras - An Efficient Neural Architecture Search System
- 人们提出神经架构搜索(NAS)来自动进行神经网络的调优,但是现在的搜索算法对算力要求很高。本文提出一种使用贝叶斯优化的全新架构来进行网络架构搜索,采用 Network Morphism 技术极大提高搜索效率。
迁移学习
- 【论文笔记】005 Frustratingly Easy Domain Adaptation
- 本文主要介绍了这篇历史悠久的领域自适应领域非常著名的文章,只需要对数据集做简单的调整,就可以达到不错的迁移学习的效果。
联邦学习
- 【论文笔记】006 Advances and Open Problems in Federated Learning
- 本文主要介绍了联邦学习领域写的非常好的一篇综述(一百多页),有助于全面了解联邦学习的过去和现在,并思考未来。
- 【论文笔记】007 A Vertical Federated Learning Method for Interpretable Scorecard and Its Application in Credit Scoring
- 本文主要介绍了纵向联邦学习中用于可解释评分卡的机器学习算法及在信用评分中的应用,这里简单记录下核心的算法思路。
生成式 AI
- 【论文笔记】008 Generative Agents - Interactive Simulacra of Human Behavior
- 本文主要介绍了斯坦福大学做的一项前瞻性研究,让不同的 AI 角色进行交互,模拟人类。原文标题为生成代理:人类行为的交互式模拟。
- 【论文笔记】009 Sparks of Artificial General Intelligence - Early experiments with GPT-4
- 原文标题翻译成中文已经很吸引人了:通用人工智能火花!原版正文内容都有 95 页,所以我会选取一些关键信息和大家分享。微软研究院出品,值得一看。
- 【论文笔记】020 Generative Agents - Interactive Simulacra of Human Behavior
- 这篇论文的核心贡献是提出了一种生成智能体(Generative Agents)架构,该架构通过将大语言模型与长期记忆、反思和规划机制相结合,使计算智能体能够在大规模交互环境中展现出可信的、具有长期连贯性的人类行为模拟。
角色扮演与个性化
- 【论文笔记】010 A Survey of Personalized Large Language Models - Progress and Future Directions
- 现在的 AI 大模型大多是"万人一面"的,无论谁问它,它给出的回答都大同小异。这篇论文探讨的是如何让 AI 实现"量体裁衣"式的个性化。它总结了目前学术界让 AI 学习用户历史对话、写作风格和个人偏好的各种技术手段,并将这些方法系统地归纳为改变说话方式(提示词)、调整大脑结构(模型适配)和校准价值偏好(目标对齐)三个层面。
- 【论文笔记】011 A Survey on Personalized Alignment - The Missing Piece for Large Language Models in Real-World Applications
- 首次对大语言模型(LLM)的个性化对齐进行了系统全面的综述,并提出了一个整合了偏好记忆管理、个性化生成与奖励、以及反馈对齐的统一框架,旨在让模型在不突破通用伦理边界的前提下,精准适应不同用户的多样化需求。
- 【论文笔记】012 Measuring Lexical Diversity of Synthetic Data Generated through Fine-Grained Persona Prompting
- 研究发现,虽然利用"角色设定"(Persona Prompting)能略微提升大模型生成内容的词汇多样性,但细粒度的详细角色描述在增加多样性方面并无显著优势,其效果甚至不如简单地在提示词中加入"字数限制"指令有效。
- 【论文笔记】013 CharacterGPT - A Persona Reconstruction Framework for Role-Playing Agents
- 这篇论文提出了 CharacterGPT 框架,通过一种名为"角色人格训练"(CPT)的方法,从小说章节摘要中增量提取并结构化角色特质,从而显著提升了角色扮演智能体在不同叙事阶段的人格一致性与角色知识还原度。
- 【论文笔记】014 Whose Personae? Synthetic Persona Experiments in LLM Research and Pathways to Transparency
- 这篇论文通过对 63 项大语言模型角色模拟研究的系统性审查,揭示了当前研究在任务定义与目标人群界定上存在严重模糊性以及生态效度不足的现状,并为此提出了一个包含六大维度的"角色透明度检查表",旨在提升合成角色实验的科学严谨性与现实代表性。
- 【论文笔记】015 From Persona to Personalization - A Survey on Role-Playing Language Agents
- 本论文系统地回顾了角色扮演语言智能体(RPLAs)的研究现状,建立了一个从群体特征(人口统计学人格)到知名人物(角色人格),再到私人定制(个性化人格)的三级人格分类体系,并全面总结了其构建方法、评估标准及潜在的伦理风险。
- 【论文笔记】016 LLM Generated Persona is a Promise with a Catch
- 本论文的核心贡献在于揭示了利用大语言模型(LLM)生成的虚构角色(personas)在社会模拟中存在严重的系统性偏差,并发现引入的AI生成细节越多,模拟结果与现实的偏离就越剧烈。
- 【论文笔记】017 PersonaFeedback - A Large-scale Human-annotated Benchmark for Personalization
- 本文推出了 PersonaFeedback,这是一个包含 8298 条人工标注测试用例的大规模基准测试,通过解耦人格推断与个性化生成,精准评估大语言模型(LLM)在给定显式用户画像时提供个性化响应的能力。
- 【论文笔记】018 PersonaLens - A Benchmark for Personalization Evaluation in Conversational AI Assistants
- 论文的核心贡献是提出了 PersonaLens,这是一个全新的基准测试框架,通过模拟具有丰富人口统计特征、个人偏好及交互历史的虚拟用户,系统性地评估 AI 助手在多轮、跨领域的任务导向对话中实现个性化定制服务的能力。
- 【论文笔记】019 Enabling Personalized Long-term Interactions in LLM-based Agents through Persistent Memory and User Profiles
- 通过将六种代理型AI模式(如多代理协作、持久性记忆等)与动态演进的用户画像相结合,提出了一个能同时满足适应性、一致性和定制化需求的框架,显著提升了大语言模型代理在长期交互中的个性化水平。
长期记忆
- 【论文笔记】021 A-Mem - Agentic Memory for LLM Agents
- 这篇论文的核心贡献是提出了一种名为 A-Mem 的新型大语言模型(LLM)智能体内存系统,它通过借鉴"卢曼卡片盒"(Zettelkasten)方法,实现了内存结构的自主构建、动态链接和持续进化,从而显著提升了智能体在复杂长期交互中的推理能力。
- 【论文笔记】022 Beyond Static Summarization - Proactive Memory Extraction for LLM Agents
- 该论文的核心贡献在于提出了主动记忆提取框架(ProMem),它借鉴认知神经科学中的复发处理理论(RPT),通过引入自我提问的循环反馈机制,将大模型(LLM)对对话历史的记忆处理从"被动、一次性"的总结提升为"主动、迭代"的认知过程。
- 【论文笔记】023 HippoRAG - Neurobiologically Inspired Long-Term Memory for Large Language Models
- 这篇论文的核心贡献是提出了 HippoRAG,这是一个受神经生物学启发的检索框架,通过将大语言模型(LLMs)与知识图谱以及个性化 PageRank 算法协同,模拟人类海马体的记忆索引功能,从而实现了比现有方法更高效、更深入的跨文档知识集成与推理能力。
- 【论文笔记】024 LongMemEval - Benchmarking Chat Assistants on Long-Term Interactive Memory
- 这篇论文的核心贡献是提出了 LongMemEval,这是一个专门用于全面评估聊天助手在长期、持续交互中五项核心记忆能力(信息提取、多会话推理、知识更新、时间推理和拒答)的基准测试,并揭示了当前最先进的模型在处理此类任务时存在显著的性能缺陷。
- 【论文笔记】026 Mem0 - Building Production-Ready AI Agents with Scalable Long-Term Memory
- 这篇论文推出了 Mem0,一种专为 AI 智能体设计的可扩展长期记忆架构,通过动态提取对话精华并利用图谱化表示(Mem0g),实现了在多轮会话中维持高度的一致性,同时比传统全上下文方法降低了 91% 的延迟和 90% 以上的成本。
多模态智能体
- 【论文笔记】025 Seeing, Listening, Remembering, and Reasoning - A Multimodal Agent with Long-Term Memory
- 本研究引入了 M3-Agent 框架,其核心贡献是构建了一个具备长期记忆的多模态智能体,它能通过以实体为中心的多模态记忆图谱持续积累情节和语义知识,并在长视频问答任务中显著超越了目前最强的商业大模型组合。
希望这些笔记能帮助大家更好地理解相关论文的核心思想和技术细节。如果有任何问题或建议,欢迎交流讨论!