[[MachineLearning/NLP/RAG/G-Retriever/G-Retriever.pdf|G-Retriever]]
给定一个有文本属性的图,我们让用户能和他们的图进行对他,也就是使用会话界面向图进行提问.针对用户的问题,我们的方法提供文本回复并且突出显示图中的相关内容.虽然现有的方法集成了 LLM 和 GNN,但是他们大多关注传统的图任务或者简单的图查询和小图和合成图.相比之下,我们开发了一个灵活的问答框架,针对现实世界的文本图,适用于多个应用场景,包括场景图理解,常识推理和知识图谱推理.为了实现这个目标,我们引入了图问答基准测试和第一个通用 RAG 方案.
1114 字
|
6 分钟
生成网络评价指标
https://blog.csdn.net/weixin_44966641/article/details/126614844
589 字
|
3 分钟
[[MachineLearning/NLP/预训练大模型/Agent/MMedAgentg.pdf|MMedAgentg]]
最近,基于大模型的 agent 被开发出来根据用户的输入选择合适的模型作为工具,但是医学上较少,因此我们设计了 MMedAgent
667 字
|
3 分钟
[[MachineLearning/多模态/MLLM/BiomedParse/BiomedParse.pdf|BiomedParse]]
生物医学图像分析是医学研究的基础,包括分割,检测识别等子任务.有趣的是,BiomedParse 的训练仅需标准分割数据集。关键在于利用数据集中附带的自然语言标签或描述,并借助 GPT-4 将这些杂乱无序的文本信息与已建立的生物医学对象本体协调一致。
281 字
|
1 分钟
空洞卷积
设 x 和 y 是两个独立的随机变量,考虑 Z=X+Y 的分布,首先,我们推导他们都离散情况下的分布列
102 字
|
1 分钟
通道空间和像素注意力
代表论文 CBAM
398 字
|
2 分钟
SentencePiece
SentencePiece 实现了subword单元(例如,字节对编码 (BPE))和 unigram 语言模型),并可以直接从原始句子训练字词模型 (subword model)。 这使得我们可以制作一个不依赖于特定语言的预处理和后处理的纯粹的端到端系统。
270 字
|
1 分钟
[[MachineLearning/NLP/预训练大模型/LLaMA/Vicuna.pdf|Vicuna]]
我们使用 ChatGPT 来作为老师进行自指令微调,根据预训练的 LLaMA 7B 得到了两个模型,分别是 LLaMA-GPT4(根据来自 GPT4 生成的 52K 的英文指令数据) 和 LLaMA-GPT4-CN(在 52K 的中文指令数据上)
151 字
|
1 分钟