目录
前言
预训练模型
 建模方法
 初步探索
 模型结构
 预训练任务
向量召回模型
实验分析
 评测指标
 预训练实验
 向量召回实验
总结和展望
团队介绍
首页 科技周边 人工智能 多模态技术在淘宝主搜召回场景的探索

多模态技术在淘宝主搜召回场景的探索

Apr 08, 2023 pm 11:31 PM
淘宝 技术

搜索召回作为搜索系统的基础,决定了效果提升的上限。如何在现有的海量召回结果中,继续带来有差异化的增量价值,是我们面临的主要挑战。而多模态预训练与召回的结合,为我们打开了新的视野,带来线上效果的显著提升。

前言

多模态预训练是学术界与工业界研究的重点,通过在大规模数据上进行预训练,得到不同模态之间的语义对应关系,在多种下游任务如视觉问答、视觉推理、图文检索上能够提升效果。 在集团内部,多模态预训练也有一些研究与应用。 在淘宝主搜场景中,用户输入的Query与待召回商品之间存在天然的跨模态检索需求,只是以往对于商品更多地使用标题和统计特征,忽略了图像这样更加直观的信息。 但对于某些有视觉元素的Query(如白色连衣裙、碎花连衣裙),相信大家在搜索结果页都会先被图像所吸引。

多模态技术在淘宝主搜召回场景的探索

多模态技术在淘宝主搜召回场景的探索

淘宝主搜场景

一方面是图像占据着更显著的位置,另一方面则是图像可能包含着标题所没有的信息,如白色、碎花这样的视觉元素。对于后者,需要区分两种情况:一种是标题中有信息、但由于显示限制无法完全展示,这种情况不影响商品在系统链路里的召回;另一种是标题中没有信息但图像中有,也就是图像相对于文本可以带来增量。后者是我们需要重点关注的对象。

 技术问题与解决思路

在主搜召回场景中应用多模态技术,有两个主要问题需要解决:

  1. 多模态图文预训练模型一般融合图像、文本两种模态,主搜由于有Query的存在,在原本商品图像、标题的图文模态基础上,需要考虑额外的文本模态。同时,Query与商品标题之间存在语义Gap,Query相对短且宽泛,而商品标题由于卖家会做SEO,往往长且关键词堆砌。
  2. 通常预训练任务与下游任务的关系是,预训练采用大规模无标注数据,下游采用少量有标注数据。但对于主搜召回来说,下游向量召回任务的规模巨大,数据在数十亿量级,而受限于有限的GPU资源,预训练只能采用其中相对少量的数据。在这种情况下,预训练是否还能对下游任务带来增益。

我们的解决思路如下:

  1. 文本-图文预训练 :将Query和商品Item分别过Encoder,作为双塔输入到跨模态Encoder。如果从Query和Item双塔来看,它们在后期才进行交互,类似于双流模型,不过具体看Item塔,图像和标题两个模态在早期就进行了交互,这部分是单流模型。所以,我们的模型结构是区别于常见的单流或双流结构的。这种设计的出发点是:更有效地提取Query向量和Item向量,为下游的双塔向量召回模型提供输入,并且能够在预训练阶段引入双塔内积的建模方式。为了建模Query与标题之间存在的语义联系与Gap,我们将Query和Item双塔的Encoder共享,再分别学习语言模型。
  2. 预训练与召回任务联动 :针对下游向量召回任务的样本构造方式与Loss,设计了预训练阶段的任务及建模方式。区别于常见的图文匹配任务,我们采用Query-Item和Query-Image匹配任务,并将Query下点击最多的Item作为正样本,将Batch内的其他样本作为负样本,增加采用Query和Item双塔内积方式建模的多分类任务。这种设计的出发点是:使预训练更靠近向量召回任务,在有限的资源下,尽可能为下游任务提供有效的输入。另外,对向量召回任务来说,如果预训练输入的向量在训练过程中是固定不变的,就无法有效地针对大规模数据做调整,为此,我们还在向量召回任务里建模了预训练向量的更新。

预训练模型

 建模方法

多模态预训练模型需要从图像中提取特征,再与文本特征融合。从图像中提取特征的方式主要有三种:使用CV领域训练好的模型提取图像的RoI特征、Grid特征和Patch特征。从模型结构来看,根据图像特征和文本特征融合方式的不同,主要有两类:单流模型或双流模型。在单流模型中,图像特征与文本特征在早期就拼接在一起输入Encoder,而在双流模型中,图像特征和文本特征分别输入到两个独立的Encoder,然后再输入到跨模态Encoder中进行融合。

 初步探索

我们提取图像特征的方式是:将图像划分为Patch序列,使用ResNet提取每个Patch的图像特征。在模型结构上,尝试过单流结构,也就是将Query、标题、图像拼接在一起输入Encoder。经过多组实验,我们发现在这种结构下,很难提取出纯粹的Query向量和Item向量作为下游双塔向量召回任务的输入。如果提取某一向量时,Mask掉不需要的模态,会使得预测与训练不一致。这个问题类似于,在一个交互型的模型里直接提取出双塔模型,根据我们的经验,这种模型的效果不如经过训练的双塔模型。基于此,我们提出了一种新的模型结构。

 模型结构

多模态技术在淘宝主搜召回场景的探索

类似双流结构,模型下方由双塔构成,上方通过跨模态Encoder融合双塔。与双流结构不同的是,双塔不是分别由单一模态构成,其中的Item塔中包含了Title和Image图文双模态,Title和Image拼接在一起输入Encoder,这部分类似单流模型。为了建模Query与Title之间存在的语义联系与Gap,我们将Query和Item双塔的Encoder共享,再分别学习语言模型。

对于预训练来说,设计合适的任务也是比较关键的。我们尝试过常用的Title和Image的图文匹配任务,虽然能达到比较高的匹配度,但对于下游向量召回任务带来的增益很少,这是因为用Query去召回Item时,Item的Title和Image是否匹配不是关键因素。所以,我们在设计任务时,更多地考虑了Query与Item之间的关系。目前,一共采用5种预训练任务。

 预训练任务

  1. Masked Language Modeling (MLM):在文本Token中,随机Mask掉15%,用剩下的文本和图像预测出被Mask的文本Token。对于Query和Title,有各自的MLM任务。MLM最小化交叉熵Loss:多模态技术在淘宝主搜召回场景的探索其中 表示剩下的文本token
  2. Masked Patch Modeling (MPM):在图像的Patch Token中,随机Mask掉25%,用剩下的图像和文本预测出被Mask的图像Token。MPM最小化KL散度Loss:多模态技术在淘宝主搜召回场景的探索其中 表示剩下的图像token
  3. Query Item Classification (QIC): 一个Query下点击最多的Item作为正样本,Batch内其他样本作为负样本。QIC将Query塔和Item塔的[CLS] token通过线性层降维到256维,再做相似度计算得到预测概率,最小化交叉熵Loss:多模态技术在淘宝主搜召回场景的探索其中 多模态技术在淘宝主搜召回场景的探索 的计算可以采取多种方式:

多模态技术在淘宝主搜召回场景的探索

其中 表示相似度计算, 表示温度超参数, 和m分别表示缩放因子和松弛因子

  1. Query Item Matching (QIM):一个Query下点击最多的Item作为正样本,Batch内与当前Query相似度最高的其他Item作为负样本。QIM使用跨模态Encoder的[CLS] token计算预测概率,最小化交叉熵Loss:

多模态技术在淘宝主搜召回场景的探索


  1. Query Image Matching (QIM2):在QIM的样本中,Mask掉Title,强化Query与Image之间的匹配。QIM2最小化交叉熵Loss:

多模态技术在淘宝主搜召回场景的探索

模型的训练目标为,最小化整体Loss:

在这5种预训练任务中,MLM任务和MPM任务位于Item塔的上方,建模Title或Image的部分Token被Mask后,使用跨模态信息相互恢复的能力。Query塔上方有独立的MLM任务,通过共享Query塔和Item塔的Encoder,建模Query与Title之间的语义联系与Gap。QIC任务使用双塔内积的方式,将预训练和下游向量召回任务做一定程度的对齐,并用AM-Softmax拉近Query的表示与Query下点击最多Item的表示之间的距离,推开Query与其他Item的距离。QIM任务位于跨模态Encoder的上方,使用跨模态信息建模Query和Item的匹配。出于计算量的考虑,采用通常NSP任务的正负样本比1:1,为了进一步推开正负样本之间的距离,基于QIC任务的相似度计算结果构造了难负样本。QIM2任务与QIM任务位于同样的位置,显式建模图像相对于文本带来的增量信息。

向量召回模型

 建模方法

在大规模信息检索系统中,召回模型位于最底层,需要在海量的候选集中打分。出于性能的考虑,往往采用User和Item双塔计算向量内积的结构。向量召回模型的一个核心问题是:如何构造正负样本以及负样本采样的规模。我们的解决方法是:将用户在一个页面内的点击Item作为正样本,在全量商品池中根据点击分布采样出万级别的负样本,用Sampled Softmax Loss在采样样本中推导出Item在全量商品池中的点击概率。

多模态技术在淘宝主搜召回场景的探索

其中 表示相似度计算, 表示温度超参数

 初步探索

遵循常见的FineTune范式,我们尝试过将预训练的向量直接输入到双塔MLP,结合大规模负采样和Sampled Softmax来训练多模态向量召回模型。不过,与通常的小规模下游任务相反,向量召回任务的训练样本量巨大,在数十亿量级。我们观察到MLP的参数量无法支撑模型的训练,很快就会达到自身的收敛状态,但效果并不好。同时,预训练向量在向量召回模型中作为输入而不是参数,无法随着训练的进行得到更新。这样一来,在相对小规模数据上进行的预训练,与大规模数据上的下游任务有一定的冲突。

解决的思路有几种,一种方法是将预训练模型融合到向量召回模型中,但预训练模型的参数量过大,再加上向量召回模型的样本量,无法在有限的资源约束下,以合理的时间进行常态化训练。另一种方法是在向量召回模型中构造参数矩阵,将预训练向量载入到矩阵中,随着训练的进行更新矩阵的参数。经过调研,这种方式在工程实现上成本比较高。基于此,我们提出了简单可行地建模预训练向量更新的模型结构。

 模型结构

多模态技术在淘宝主搜召回场景的探索

我们先将预训练向量通过FC降维,之所以在这里而不是在预训练中降维,是因为目前的高维向量对于负样本采样来说还在可接受的性能范围内,这种情况下,在向量召回任务中降维是与训练目标更一致的。同时,我们引入Query和Item的ID Embedding矩阵,Embedding维度与降维后的预训练向量的维度保持一致,再将ID与预训练向量融合在一起。这个设计的出发点是:引入足以支撑大规模训练数据的参数量,同时使预训练向量随着训练的进行得到适应性地更新。

在只用ID和预训练向量融合的情况下,模型的效果不仅超过了只用预训练向量的双塔MLP的效果,也超过了包含更多特征的Baseline模型MGDSPR。更进一步,在这个基础上引入更多的特征,可以继续提升效果。

实验分析

 评测指标

对于预训练模型的效果,通常是用下游任务的指标来评测,而很少用单独的评测指标。但这样一来,预训练模型的迭代成本会比较高,因为每迭代一个版本的模型都需要训练对应的向量召回任务,再评测向量召回任务的指标,整个流程会很长。有没有单独评测预训练模型的有效指标?我们首先尝试了一些论文中的Rank@K,这个指标主要是用来评测图文匹配任务:先用预训练模型在人工构造的候选集中打分,再计算根据分数排序后的Top K结果命中图文匹配正样本的比例。我们直接将Rank@K套用在Query-item匹配任务上,发现结果不符合预期,一个Rank@K更好的预训练模型,在下游的向量召回模型中可能会获得更差的效果,无法指导预训练模型的迭代。基于此,我们将预训练模型的评测与向量召回模型的评测统一起来,采用相同的评测指标及流程,可以相对有效地指导预训练模型的迭代。

Recall@K :评测数据集由训练集的下一天数据构成,先将同一个Query下不同用户的点击、成交结果聚合成多模态技术在淘宝主搜召回场景的探索,再计算模型预测的Top K结果 命中 的比例:

多模态技术在淘宝主搜召回场景的探索

在模型预测Top K结果的过程中,需要从预训练/向量召回模型中提取Query和Item向量,使用近邻检索得到一个Query下的Top K个Item。通过这个流程模拟线上引擎中的向量召回,来保持离线与在线的一致性。对于预训练模型来说,这个指标与Rank@K的区别是:在模型中提取Query和Item向量进行向量内积检索,而不是直接用模态融合后的模型来打分;另外,一个Query下不仅要召回与之匹配的Item,还要召回这个Query下不同用户的点击、成交Item。

对于向量召回模型,在Recall@K提高到一定程度后,也需要关注Query和Item之间的相关性。一个相关性差的模型,即使能提高搜索效率,也会面临Bad Case增加导致的用户体验变差和投诉舆情增多。 我们采用与线上相关性模型一致的离线模型,评测Query和Item之间以及Query和Item类目之间的相关性。

 预训练实验

我们选取部分类目下1亿量级的商品池,构造了预训练数据集。

我们的Baseline模型是经过优化的FashionBert,加入了QIM和QIM2任务,提取Query和Item向量时采用只对非Padding Token做Mean Pooling的方式。以下实验探索了以双塔方式建模,相对于单塔带来的增益,并通过消融实验给出关键部分的作用。

多模态技术在淘宝主搜召回场景的探索

从这些实验中,我们能得出如下结论:

  1. 实验8 vs 实验3:经过调优后的双塔模型,在Recall@1000上显著高于单塔Baseline。
  2. 实验3 vs 实验1/2:对单塔模型来说,如何提取Query和Item向量是重要的。我们尝试过Query和Item都用[CLS] token,得到比较差的结果。实验1对Query和Item分别用对应的Token做Mean Pooling,效果要好一些,但进一步去掉Padding Token再做Mean Pooling,会带来更大的提升。实验2验证了显式建模Query-Image匹配来突出图像信息的作用,会带来提升。
  3. 实验6 vs 实验4/5:实验4将Item塔的MLM/MPM任务上移到跨模态Encoder,效果会差一些,因为将这两个任务放在Item塔能够增强Item表示的学习;另外,在Item塔做基于Title和Image的跨模态恢复会有更强的对应关系。实验5验证了对Query和Item向量在训练和预测时增加L2 Norm,会带来提升。
  4. 实验6/7/8:改变QIC任务的Loss会带来提升,Softmax相比于Sigmoid更接近下游的向量召回任务,AM-Softmax则更进一步推开了正样本与负样本之间的距离。

 向量召回实验

我们选取10亿量级有点击的页面,构造了向量召回数据集。在每个页面中包含3个点击Item作为正样本,从商品池中根据点击分布采样出1万量级的负样本。在此基础上,进一步扩大训练数据量或负样本采样量,没有观察到效果的明显提升。

我们的Baseline模型是主搜的MGDSPR模型。以下实验探索了将多模态预训练与向量召回结合,相对于Baseline带来的增益,并通过消融实验给出关键部分的作用。

多模态技术在淘宝主搜召回场景的探索

从这些实验中,我们能得出如下结论:

  1. 实验7/8 vs 实验6:多模态特征与ID通过FC融合后,在3个指标上都超过了Baseline,在提升Recall@1000的同时,对商品相关性提升更多。在此基础上,加入与Baseline相同的特征,能进一步提升3个指标,并在Recall@1000上提升得更多。
  2. 实验1 vs 实验2:只有多模态特征相比于只有ID,Recall@1000更低,但相关性更高,且相关性接近线上可用的程度。说明这时的多模态召回模型,从召回结果来看有更少的Bad Case,但对点击、成交的效率考虑得不够。
  3. 实验3/4/5 vs 实验1/2:将多模态特征与ID融合后,能够在3个指标上都带来提升,其中将ID过FC再与降维后的多模态特征相加,效果更好。不过,与Baseline相比,在Recall@1000上仍有差距。
  4. 实验7 vs 实验5:叠加预训练模型的优化后,在Recall@1000、商品相关性上都有提升,类目相关性基本持平。

我们在向量召回模型的Top 1000结果中,过滤掉线上系统已经能召回的Item,发现其余增量结果的相关性基本不变。在大量Query下,我们看到这些增量结果捕捉 到了商品Title之外的图像信息,并对Query和Title之间存在的语义Gap起到了一定的作用。

query: 痞帅西装

多模态技术在淘宝主搜召回场景的探索

query: 女掐收腰小衫

多模态技术在淘宝主搜召回场景的探索

总结和展望

针对主搜场景的应用需求,我们提出了文本-图文预训练模型,采用了Query和Item双塔输入跨模态Encoder的结构,其中Item塔是包含图文多模态的单流模型。通过Query-Item和Query-Image匹配任务,以及Query和Item双塔内积方式建模的Query-Item多分类任务,使预训练更接近下游的向量召回任务。同时,在向量召回中建模了预训练向量的更新。在资源有限的情况下,使用相对少量数据的预训练,对使用海量数据的下游任务仍然带来了效果的提升。

在主搜的其他场景中,如商品理解、相关性、排序,也存在应用多模态技术的需求。我们也参与到了这些场景的探索中,相信多模态技术在未来会给越来越多的场景带来增益。

团队介绍

淘宝主搜召回团队:团队负责主搜链路中的召回、粗排环节,目前的主要技术方向为基于全空间样本的多目标个性化向量召回、基于大规模预训练的多模态召回、基于对比学习的相似Query语义改写以及粗排模型等。

以上是多模态技术在淘宝主搜召回场景的探索的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳图形设置
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您听不到任何人,如何修复音频
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解锁Myrise中的所有内容
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

怎么看淘宝的发货地在哪里    查看淘宝app下单发货地址的方法 怎么看淘宝的发货地在哪里 查看淘宝app下单发货地址的方法 Mar 12, 2024 pm 04:00 PM

  淘宝app上都能够满足大家的一切购物方面的问题,这里超多的商家,超多的一些宝贝,都能够等着大家进行选择,无论大家想要买一些什么样的商品,都能够在这里搜索找到,让大家直接的下单购买,全方面的一些功能,都能够自由的进行操作哦,当大家下单成功的话,大家只需要等待商家发货,进行物流的配送即可,非常的方便,很多的时候,大家都能够选择查看到这一些商品的发货地,知道自己的这一些商品到底是哪里进行发货,尤其是对于大家购买一些电子产品的时候,都能查询一些相关的发货地的信息,避免自己买到的是一些翻新机的问题,相

淘宝免单红包领取方法2024 淘宝免单红包领取方法2024 May 09, 2024 pm 03:22 PM

2024淘宝免单活动每日三场,大家需要在对应时间下单付款对应金额的商品,免单金额是以等额红包形式发放,接下来给大家带来了淘宝免单红包领取方法2024:抢到免单的用户,红包资格将发放至卡券包,为待激活状态;网页版淘宝暂无卡券包,仅做免单活动的中奖记录的展示;卡券包在【淘宝APP-我的淘宝-我的权益-红包】。淘宝免单红包领取方法20241、抢到免单的用户,红包资格将发放至卡券包,为待激活状态;2、网页版淘宝暂无卡券包,仅做免单活动的中奖记录的展示;3、卡券包在【淘宝APP-我的淘宝-我的权益-红包】

淘宝怎么关闭免密支付   取消免密支付的设置方法 淘宝怎么关闭免密支付 取消免密支付的设置方法 Mar 12, 2024 pm 12:07 PM

  淘宝APP上的功能超多,这些功能的存在,都是为了大家可以获得更好的购物体验,超多的一些商品种类,都是可以很好的满足不同用户们的购物需求,大家真的想买啥,就买啥,大家按类查找或者是直接的搜索查看这些商品,都是没有任何问题的存在,大家都能够放心的进行网购,给大家带来物超所值的购物服务,绝对给你们想要的一切哦,当然大家在这里购物的话,都能够发现这里多种的一些购物方式,是可以让大家进行选择,对于这里的一些免密支付的这一功能,有人喜欢,也有人不是那么的喜欢,觉得安全性没有那么的高,当然大家都能随时取消

淘宝怎么改名字 淘宝怎么改名字 Mar 24, 2024 pm 03:31 PM

改名功能在淘宝中可以让用户自由改名字昵称,有些用户并不知道淘宝怎么改名字,在我的淘宝中的设置里点击头像的淘宝账号进行修改即可,接下来小编就为大家带来了改名字昵称方法的介绍,还不知道的用户快来下载试试看吧。淘宝使用教程淘宝怎么改名字答:在我的淘宝中的设置里点击头像的淘宝账号进行修改即可详情介绍:1、进入淘宝,点击右下【我的淘宝】。2、点击右上的【设置】图标。3、点击头像。4、再点【淘宝账号】。5、点击【修改账号名】,输入并修改即可。

淘宝怎么查消费总金额   查看消费总额的方法 淘宝怎么查消费总金额 查看消费总额的方法 Mar 12, 2024 pm 03:07 PM

  我们平常需要进行网购的话,大家都是会选择淘宝这一平台,完全都能够满足大家一切的购物方面的需求,拥有着超多的一些商品的资源,真的各种各样的一些商品,都是汇聚了在这一个平台上,大家发现这里的一些商品的类别超多,完全都能够根据自己的需求进行挑选,想买啥,就能买啥的,所以大家肯定都是会在这里购买到超多的一些商品,这些商品的价格,都是有着很大的一些不同,所有的这一些购物记录都能保存下来,能够方便大家随时的进行查询,那么你们知道自己在这里购物的话,到底是花了多少的一些钱呢,想必大家非常的好奇,下面小编都

淘宝怎么关掉红包提醒 淘宝怎么关掉红包提醒 Apr 01, 2024 pm 06:25 PM

淘宝是很多小伙伴们常用的网购软件,平时很多东西各位都会从里面下单购买,里面给用户们提供了红包提醒功能,有的朋友们想要来关掉,那么就赶快来PHP中文网看看吧。淘宝关闭红包提醒步骤一览1、打开淘宝APP的个人中心,选择【设置】按钮进入页面。2、找到【消息通知】选项,在这里可以选择消息推送开关,找到红包消息将开关关闭就可以了。3、或者也可以通过手机的设置页面,将淘宝APP的通知权限关闭,这样所有来自淘宝的消息都不会进入推送,只有打开后才能看到。4、用户可以自己设置想要接收哪些类型的消息,这样使用起来也

《淘宝》510免单红包怎么用 《淘宝》510免单红包怎么用 May 08, 2024 pm 10:00 PM

淘宝510免单红包怎么用?淘宝近期开展了510周年庆的免单活动,这个活动是可以获取免单红包的,福利非常的多,相信很多小伙伴都想参与这个活动,也有小伙伴已经领取到了免单红包,但是却不知道具体的用法,今天就带大家一起来看看相关的介绍吧。淘宝510周年庆免单红包使用介绍使用方:猜题下单的所有订单确认收货后,免单红包即可使用。一、免单红包发放及追回用户可以通过网页版淘宝暂无卡券包,但可在【淘宝APP-我的淘宝-我的权益-红包】处查看。抢到免单的用户,红包资格将发放至卡券包,为待激活状态;卡券包在进行中奖

《淘宝》免单红包退款会退回吗 《淘宝》免单红包退款会退回吗 May 08, 2024 am 08:16 AM

在淘宝购物时,我们经常会使用免单红包来享受优惠。但是,如果我们需要退款,这些免单红包会被退回吗?让我们来看看这个问题的答案。淘宝免单红包退款会退回吗分情况而论获得红包时,红包是待激活状态,在兑换商品之前,这个待激活的红包是没有激活的,暂时无法使用,等购买的商品确认收货之后,待激活状态的红包才可使用。免单红包使用后商品有问题需要退货,那么红包的退回需要按照实际情况来判断:一、退款规则11、红包使用后发生退款,则红包按比例退回。2、在未逾期的情况下,退回红包的使用期限为原定使用期限,如果逾期7天内发

See all articles