使用Python计算神经机器翻译的BLEU分数
使用 NMT 或 NLP 中的神经机器翻译,我们可以将文本从给定语言翻译为目标语言。为了评估翻译的执行情况,我们使用 Python 中的 BLEU 或双语评估学生分数。
BLEU 分数的工作原理是将机器翻译的句子与人工翻译的句子进行比较,两者都采用 n 元语法。此外,随着句子长度的增加,BLEU 分数下降。一般来说,BLEU 分数的范围是 0 到 1,值越高表示质量越好。然而,获得满分的情况非常罕见。请注意,评估是在子串匹配的基础上完成的,它没有考虑语言的其他方面,如连贯性、时态和语法等。
公式
BLEU = BP * exp(1/n * sum_{i=1}^{n} log(p_i))
这里,各个术语具有以下含义 -
BP 是简洁惩罚。它根据两个文本的长度调整 BLEU 分数。其公式为 -
BP = min(1, exp(1 - (r / c)))
n是n-gram匹配的最大阶数
p_i 是精度分数
算法
第 1 步 - 导入数据集库。
步骤 2 - 使用 load_metric 函数并以 bleu 作为参数。
第 3 步 - 根据翻译后的字符串的单词列出一个列表。
步骤 4 - 使用所需输出字符串的单词重复步骤 3。
步骤 5 - 使用 bleu.compute 查找 bleu 值。
示例 1
在此示例中,我们将使用 Python 的 NLTK 库来计算将德语句子机器翻译成英语的 BLEU 分数。
源文本(英文)- 今天下雨
机器翻译文本 - 今天下雨
所需文本 - 今天下雨,今天下雨
虽然我们可以看到翻译没有正确完成,但我们可以通过查找蓝色分数来更好地了解翻译质量。
示例
#import the libraries from datasets import load_metric #use the load_metric function bleu = load_metric("bleu") #setup the predicted string predictions = [["it", "rain", "today"]] #setup the desired string references = [ [["it", "is", "raining", "today"], ["it", "was", "raining", "today"]] ] #print the values print(bleu.compute(predictions=predictions, references=references))
输出
{'bleu': 0.0, 'precisions': [0.6666666666666666, 0.0, 0.0, 0.0], 'brevity_penalty': 0.7165313105737893, 'length_ratio': 0.75, 'translation_length': 3, 'reference_length': 4}
您可以看到,翻译效果不是很好,因此,蓝色分数为 0。
示例 2
在此示例中,我们将再次计算 BLEU 分数。但这一次,我们将把一个法语句子机器翻译成英语。
源文本(德语)- 我们要去旅行
机器翻译的文本 - 我们要去旅行
所需文字 - 我们要去旅行,我们要去旅行
您可以看到,这次翻译的文本更接近所需的文本。让我们检查一下它的 BLEU 分数。
示例
#import the libraries from datasets import load_metric #use the load_metric function bleu = load_metric("bleu") #steup the predicted string predictions = [["we", "going", "on", "a", "trip"]] #steup the desired string references = [ [["we", "are", "going", "on", "a", "trip"], ["we", "were", "going", "on", "a", "trip"]] ] #print the values print(bleu.compute(predictions=predictions, references=references))
输出
{'bleu': 0.5789300674674098, 'precisions': [1.0, 0.75, 0.6666666666666666, 0.5], 'brevity_penalty': 0.8187307530779819, 'length_ratio': 0.8333333333333334, 'translation_length': 5, 'reference_length': 6}
您可以看到,这次完成的翻译非常接近所需的输出,因此蓝色分数也高于 0.5。
结论
BLEU Score 是一个很棒的工具,可以检查翻译模型的效率,从而进一步改进它以产生更好的结果。尽管 BLEU 分数可用于粗略了解模型,但它仅限于特定词汇,并且常常忽略语言的细微差别。这就是 BLEU 分数与人类判断很少协调的原因。但您绝对可以尝试一些替代方案,例如 ROUGE 分数、METEOR 指标和 CIDEr 指标。
以上是使用Python计算神经机器翻译的BLEU分数的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

Python在游戏和GUI开发中表现出色。1)游戏开发使用Pygame,提供绘图、音频等功能,适合创建2D游戏。2)GUI开发可选择Tkinter或PyQt,Tkinter简单易用,PyQt功能丰富,适合专业开发。

PHP和Python各有优势,选择依据项目需求。1.PHP适合web开发,尤其快速开发和维护网站。2.Python适用于数据科学、机器学习和人工智能,语法简洁,适合初学者。

Debian系统中的readdir函数是用于读取目录内容的系统调用,常用于C语言编程。本文将介绍如何将readdir与其他工具集成,以增强其功能。方法一:C语言程序与管道结合首先,编写一个C程序调用readdir函数并输出结果:#include#include#includeintmain(intargc,char*argv[]){DIR*dir;structdirent*entry;if(argc!=2){

要在有限的时间内最大化学习Python的效率,可以使用Python的datetime、time和schedule模块。1.datetime模块用于记录和规划学习时间。2.time模块帮助设置学习和休息时间。3.schedule模块自动化安排每周学习任务。

本文将指导您如何在Debian系统上更新NginxSSL证书。第一步:安装Certbot首先,请确保您的系统已安装certbot和python3-certbot-nginx包。若未安装,请执行以下命令:sudoapt-getupdatesudoapt-getinstallcertbotpython3-certbot-nginx第二步:获取并配置证书使用certbot命令获取Let'sEncrypt证书并配置Nginx:sudocertbot--nginx按照提示选

在Debian上开发GitLab插件需要一些特定的步骤和知识。以下是一个基本的指南,帮助你开始这个过程。安装GitLab首先,你需要在Debian系统上安装GitLab。可以参考GitLab的官方安装手册。获取API访问令牌在进行API集成之前,首先需要获取GitLab的API访问令牌。打开GitLab仪表盘,在用户设置中找到“AccessTokens”选项,生成一个新的访问令牌。将生成的

在Debian系统上配置HTTPS服务器涉及几个步骤,包括安装必要的软件、生成SSL证书、配置Web服务器(如Apache或Nginx)以使用SSL证书。以下是一个基本的指南,假设你使用的是ApacheWeb服务器。1.安装必要的软件首先,确保你的系统是最新的,并安装Apache和OpenSSL:sudoaptupdatesudoaptupgradesudoaptinsta

Apache是互联网幕后的英雄,不仅是Web服务器,更是一个支持巨大流量、提供动态内容的强大平台。它通过模块化设计提供极高的灵活性,可根据需要扩展各种功能。然而,模块化也带来配置和性能方面的挑战,需要谨慎管理。Apache适合需要高度可定制、满足复杂需求的服务器场景。
