- 机器翻译论文,用paperyy免费版查重后重复率高达35?
- 将自己的中文论文翻译成英文?
- 无监督学习机器翻译模型是如何在无双语平行语料下做到翻译的?
- 机器翻译越来越融入我们的现实生活?
- 论文英文文献翻译有什么比较好的翻译软件?
机器翻译论文,用paperyy免费版查重后重复率高达35?
毕业论文查重率太高,要采取以下几种方法降重。
方法一:外文文献翻译法
查阅研究领域外文文献,特别是高水平期刊的文献,比如Science,Nature,WaterRes等,将其中的理论讲解翻译成中文,放在自己的论文中。
它的优点是每个人语言习惯不同,翻译成的汉语必然不同。因此即使是同一段文字,不同人翻译了之后,也不会出现抄袭的情况。
外文文献的阅读,可以提升自身英语水平,拓展专业领域视野。
缺点:英文不好特别是专业英文不好的同学实施起来比较费劲。
方法二:变化措辞法
将别人论文里的文字,或按照意思重写,或变换句式结构,更改主被动语态,或更换关键词,或通过增减。当然如果却属于经典名句,还是按照经典的方法加以引用。
本方法优点是将文字修改之后,按照知网程序和算法,只要不出现连续13个字重复,以及关键词的重复,就不会被标红。
对论文的每字每句都了如指掌,烂熟于心,答辩时亦会如鱼得水。
缺点:逐字逐句的改,费时费力。
方法三:google等翻译工具翻译法
将别人论文里的文字,用google翻译成英文,再翻译回来,句式和结构就会发生改变,再自行修改下语病后,即可顺利躲过查重。本方法方便快捷,可以一大段一大段的修改。
如果以上方法都不可以,而且你认为自己的原创性很高,就需要作一个查重率过高的说明。
将自己的中文论文翻译成英文?
一、回答您的问题
对于您的问题,我有亲身经历,不知您的论文是哪个方向的,我的小论文是关于推荐算法的。虽然我过了公共英语六级,但将我的小论文翻译成英文还是没有信心。像你的想法一样,需要借助翻译软件,目前的翻译软件有很多,有道翻译,百度翻译等。我当时用的百度翻译,将整篇文章翻译完成之后,投稿结果中有一条说的就是语句表达有问题。后面请教了一位博士师兄,修改了之后,才成功。
二、总结与建议
翻译软件对于日常语句没有多大问题。但是对于某一个领域和专业语句,翻译还是不够的。对于这个问题,可以从两个方面解决。第一,就是临时性的解决办法,找和自己专业相关的人员帮忙修改。第二,自己多读自己领域的英文文献。多参加自己研究方向的活动,也有类似的英语培训。将自己的专业英语能力提升之后,才是解决问题的根本。
希望对你有帮助,祝生活愉快。
无监督学习机器翻译模型是如何在无双语平行语料下做到翻译的?
随便说说,错误之处大家指正。
目前的无监督,或者说极弱监督机器翻译模型主要做了两件事:
1. 学一个双语的word embedding 映射,即对齐两个语言的词向量空间。
做这个工作的有大量论文,但是名字不太一样,有的叫multilingual embedding transforming,有的叫bilingual lexicon induction 。言而总之就是先在各自语言的大规模单语数据上训embedding,然后利用数量极少的种子词库(比如双语中的阿拉伯数字是肯定对应的),基于的假设是双语对应的词周围经常出现的词也是对应的,用self-learning去不断地迭代,不断训练。
2. 有了一个映射的还不错的词向量空间了,那么此时无监督翻译模型就有一定性能了,毕竟翻译最简单的case就是有一个词典,一个词一个词地mapping,有一个还不错的模型对于无监督翻译是非常重要的,因为不能指望从真正的随机里学习到什么东西。
现在就可以采用一些看着很像梯云纵的方法去翻译,左脚踩右脚,然后爬的很高,当然能这么做是有前提的,这里面用到attention based seq2seq model的一个重要的sense,或者说经验,此话先按下不表,先说模型。
模型大致结构可见上图,结构很简单,就是两个语言L1,L2 共享一个encoder,用这个encoder把L1语言的某句话 L1_sent 编码成向量vector1,然后在用L2的decoder根据vector1生成L2_sent, 此时我们是不是有一个伪平行语料了?是不是感觉事情有了一点点转机?但是此时是不能直接用这个训练的,还得用L2 encoder --- L2 sent 编码成vector2,然后强制vector2 用L1 decoder生成最初始的句子L1_sent, 此时<x = L2_sent, y = L1_sent>就是我们要用来训练的instance。
Note:
1. 为什么要转换两次?因为得和所有的参数都相关啊,不然监督信号咋传递到所有的参数上面。2. 为什么是<x = L2_sent, y = L1_sent>,而不是反过来?因为y必须是gold的,不然会引入大量噪声,x有点噪音没关系,因为x端信息在seq2seq里是被attention抽取的,有点噪音也过滤掉了。其次就是y端的句子还有一个重要的目标就是训练decoder里面的language model,如果你是有噪音的数据,会导致language model生成的句子不流畅,这个很致命。x可以有点噪音也是我们前面按下不表的前提,要是没有这个特性,应该很难训好!
3. 作者用了一个类似加噪音的encoder-decoder去train shared encoder,这件事听着就很靠谱。
4. FAIR的工作和这个差不多,只是他们用了一种自己提出的word mapping,居然也投了ICLR,但个人觉得不能算salami slicing。
5. MSRA的nips17的dual learning我猜也想做的这件事,但是没有word mapping先把translation space搞的稍微好一点,想无监督应该是非常难的。
机器翻译越来越融入我们的现实生活?
机器翻译普及我觉得不需要有人工翻译了。前者完全可以替代后者。
但是人也必须要学会自己翻译才行。毕竟知识需要靠人自己来传承的。
如果只是交流,人工翻译还会带点自己的主观判断,就失去了原来的意思。但是这也是机器翻译所不能做到的。它不能主观的判断对方意思和当时语境。就失去了语言的艺术性了。
单纯的文字翻译的话,机器翻译就可以替代人工翻译。
以后人工翻译会越来越少,但是也不能没有。
最好以后世界只有一种交流方式。人人都能交流无碍,突然觉得秦始皇特流弊,有远见!
论文英文文献翻译有什么比较好的翻译软件?
如果是一般的单词翻译,有道词典都可以满足
如果是图片翻译,推荐谷歌翻译APP,直接对着就能识别,当然如果拍照后,有道也能学完成
如果是文件翻译,PPT文献word什么的,翻译狗最良心
翻译在线-Word翻译,Pdf翻译,文献论文翻译-翻译狗

还没有评论,来说两句吧...