语文中对比是什么手法(对比是什么手法)

2024-03-26 17:06:24 综合百科 投稿:口天吴
最佳答案对比是表现手法或说是写作手法,是把具有明显差异、矛盾和对立的双方安排在一起,进行对照比较的表现手法,有利于充分显示事物的矛盾,加强文章的艺术效果和感染力。在文学理论上,对比是抒情话语的基本组合方式之一。它把在感觉特征或寓意上相反的词句组合在一起,形成对照

对比是什么手法

1

对比是表现手法或说是写作手法,是把具有明显差异、矛盾和对立的双方安排在一起,进行对照比较的表现手法,有利于充分显示事物的矛盾,加强文章的艺术效果和感染力。

在文学理论上,对比是抒情话语的基本组合方式之一。它把在感觉特征或寓意上相反的词句组合在一起,形成对照,强化抒情话语的表现力。运用对比,能把好同坏,善同恶,美同丑这样的对立揭示出来,给人们以深刻的印象和启示。

提升品质(五)学会比较

2

当有了标准后,重要的是标准的应用,从提升品质的角度讲,那就是要进行比较。

也许对于不少朋友来说,比较不是很简单的事情吗?大多数种水果的一直在跟别人比较,跟日本的果品比,跟我们的同行比,很多时候总能够比出一种自信,觉得自己的种的水果也是非常好的。当然这里的比较并不是这样的比,不是拿一个自己的水果去跟人家比,而是把自己果园的所有水果,与建立的可视化产品标准比。

产品标准是一把尺子,用的就是衡量自己种的水果是什么样的水平。那么这种比较是需要讲一点方法,就如同标准也是根据果园果品生产来制定,尽量与果品的销售相结合,同样的在使用标准对果品进行比较时,也需要遵守这样的实际情况。这里我分享二种方法:

一、结合商品果的销售。不少的果园会有精品果、礼品果、普通果之类的产品,并给予不同的包装。在这些产品中,能够明显地感受到相互之间果品质量上的差异。在这种情况下,标准的设定大多结合了果园产品的要求,因此不同果之间的比例能够很好地说明果园的果品产出水平。在这里需要关注的是,不能成为目标果实的主要质量因素,换言之,即是什么原因使得果品成为普通果实,并对这些原因进行分类和排序。

二、抽样调查法。这种方法并不关注各级果的相应比例,更多的关注被抽样的果实与标准中最优的果实之间的差距以及果实生长环境之间的差距。这种方法可以参照我的《果实品质因素调查》系列文章。这里简单地介绍一下方法。首先是对于果园总体果实质量的判断,比如个头的大中小的比例,以便简单的与标准进行比较,以确定符合优质果的大概比率;二是选择树上认为比较理解的果实,进行数据观测,包括方位、朝向、地点、枝叶量之类,然后采下来后对果实进行数据化,包括单果重、颜色、形状、内质部分包括可溶性固形物、酸度(有条件的话)以及风味。风味是需要自己吃的,我是建议自己种水果一定要吃自己的水果。果实的数据是可以与标准中的数据进行比较,从而找到相应的差异。

比较的目的是为了比较出结果,比较是过程,结果是我们需要的。而这种结果可以有多种层次的,可以很简单的好与不好,也可以很详细地通过数据说话,可以自己进行比较,也可以听听其他人的感受或意见。但无论如何,我认为在有了标准的情况下,对于果园的种植者来说,是每年进行一次比较,以考察自己在这一年的努力是否达到效果。

比较的另一个方面是能够比较出差距,我认为知道差在哪里非常的重要,这是后续工作的前提,即技术选择的出发点。因此我认为充分地了解自己果园在种植中与目标产品存在的差距是非常重要的,这种充分认识,是对症下药的基础。因此我也常说,对果园的果品进行品质因素的调查,是提升品质的关键钥匙,没有这把钥匙,我们就不能准确地打开品质提升之门。

2021年我对林家果艺园的皋泄香柚进行了品质因素调查,采样数据对比标准中的精品果,可以明显地看到之间的差距,共16个果实中,仅2个符合,而达不到精品果的主要方面中,包括单果重,果型指数最多。而这二个方面在技术上均涉及疏果,当然也与幼果数据有关,涉及花芽分化与修剪。这能够让第二年的管理相对来说具有明显的方向性,即多留花,并疏好果。

当然,学会比较依然需要提高相应的认识。我认为如何更好的利用标准来对自己果园进行评价是本文所谈的“比较”的核心要义,而当我们把比较的结果进行分析,并试图找出相应的原因时,我们会发现,品质因素调查就成为了一把钥匙,它既能够有效地为了解自己果园存在的差距,而且也能够为寻找这种差距的原因提供一把非常有效的钥匙,而这把钥匙的利用,将是我们下一篇文章讨论的话题。

感谢阅读。

Prompt+对比学习,更好地学习句子表征

3

本文约1100字,建议阅读5分钟

本文提出使用Prompt来捕捉句子表征。

虽然BERT等语言模型有很大的成果,但在对句子表征方面(sentence embeddings)上表现依然不佳,因为BERT存在 sentence bias 、 anisotropy 问题;我们发现prompt,再给定不同的template时可以生成不同方面的positive pair,且避免embedding bias。相关工作

Contrastive Learning(对比学习) 可以利用BERT更好地学习句子表征。其重点在于如何寻找正负样本。例如,使用inner dropout方法构建正样本。

现有的研究表明,BERT的句向量存在一个 坍缩现象 ,也就是句向量受到高频词的影响,进而坍缩在一个凸锥,也就是各向异性,这个性质导致度量句子相似性的时候存在一定的问题,这也就是 anisotropy 问题。

发现

(1)Original BERT layers fail to improve the performance.

对比两种不同的sentence embedding方法:

对BERT的输入input embedding进行平均;对BERT的输出(last layer)进行平均

评价两种sentence embedding的效果,采用sentence level anisotropy评价指标:

anisotropy :

将corpus里面的sentence,两两计算余弦相似度,求平均。

对比了不同的语言模型,预实验如下所示:

从上表可以看出,貌似anisotropy对应的spearman系数比较低,说明相关性不大。比如bert-base-uncased,可以看出static token embedding的anisotropy很大,但是最终的效果也差不多。

(2)Embedding biases harms the sentence embeddings performance.

token embedding会同时受到token frequency和word piece影响

不同的语言模型的token embedding高度受到词频、subword的影响;通过可视化2D图,高频词通常会聚在一起,低频词则会分散

For frequency bias, we can observe that high fre- quency tokens are clustered, while low frequency tokens are dispersed sparsely in all models (Yan et al., 2021). The begin-of-word tokens are more vulnerable to frequency than subword tokens in BERT. However, the subword tokens are more vul- nerable in RoBERTa.

方法

如何避免BERT在表征句子时出现上述提到的问题,本文提出使用Prompt来捕捉句子表征。但不同于先前prompt的应用(分类或生成),我们并不是获得句子的标签,而是获得句子的向量,因此关于prompt-based sentence embedding,需要考虑两个问题:

如何使用prompt表征一个句子;如何寻找恰当的prompt;

本文提出一种基于prompt和对比学习的句子表征学习模型。

如何使用prompt表征一个句子

本文设计一个template,例如“[X] means [MASK]”,[X] 表示一个placehoder,对应一个句子,[MASK]则表示待预测的token。给定一个句子,并转换为prompt后喂入BERT中。有两种方法获得该句子embedding:

方法一:直接使用[MASK]对应的隐状态向量:;方法二:使用MLM在[MASK]位置预测topK个词,根据每个词预测的概率,对每个词的word embedding进行加权求和来表示该句子:

方法二将句子使用若干个MLM生成的token来表示,依然存在bias,因此本文只采用第一种方法

如何寻找恰当的prompt

关于prompt设计上,可以采用如下三种方法:

manual design:显式设计离散的template;使用T5模型生成;OptiPrompt:将离散的template转换为continuous template;训练

采用对比学习方法,对比学习中关于positive的选择很重要,一种方法是采用dropout。本文采用prompt方法,为同一个句子生成多种不同的template,以此可以获得多个不同的positive embedding。

The idea is using the different templates to repre- sent the same sentence as different points of view, which helps model to produce more reasonable pos- itive pairs.

为了避免template本身对句子产生语义上的偏向。作者采用一种trick:

喂入含有template的句子,获得[MASK]对应的embedding ;只喂入template本身,且template的token的position id保留其在原始输入的位置,此时获得[MASK]对应的embeding:

最后套入对比学习loss中进行训练:

实验

作者在多个文本相似度任务上进行了测试,实验结果如图所示:

惊奇的发现,PromptBERT某些时候竟然比SimCSE高,作者也提出使用对比学习,也许是基于SimCSE之上精细微调后的结果。

WwW.BaiKeZhishi.Com
标签: 手法 对比
免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,转载此文是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们(管理员邮箱:baikezhishi@foxmail.com),情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!