人工智能
翻译行业应该如何加入到目前关于技术使用中伦理问题的讨论中?
除了需要关注机器学习APP产生的碳足迹外,似乎没有必要将人工智能的可解释性作为主要企业社会责任转变议程的一部分。这些年来,翻译实践本身在AI应用前就存在的伦理问题,基本都得到了解决。是的,我们鼓励生产“有道德意识的机器”,就像我们支持商业中的道德行动者一样。但是,是否有必要引入具体的最佳实践来规范这一承诺呢?
在着手气候变化问题时,很明显,基于语言任务的机器学习特别耗能。目前对此问题的评论相当广泛,最近,由于高能源成本,用于从数据生成文本的Transformer模型已经停用。建立这类模型的另一个后果是会限制关于大规模语言数据APP的有效研究,这种模型,由于能源成本太大,只有一些大型科技公司有实力使用。这往往排除了急需但资金不足的学术研究。
然而,与此同时,旨在减少“学习”时间的项目不断出台,这也减少了运行这些大型语言模型的成本。在翻译领域,小型数据集的出现也会影响能源消耗吗?
计算机行业现在已经意识到使用GPU/TPU的碳成本。然而,对我们来说,更长期的问题是,如果我们在未来几十年里再增加50至500对语言,那么我们该如何应对全球快速增长的机器使用所带来的全球成本。或者开始使用不利于环境保护的“大量多语言”数十亿字的数据集来驱动的一次性翻译工作!
正如Systran的Jean Senellart在最近的一次TAUS网络研讨会上所说的那样,训练一个NMT模型相当于烧毁一棵大树。我们应该利用这项技术实现更多的定性(而非定量)突破,共同合作、共享模型,而不是反复地运行重复的流程和配对,以在BLEU分数上取得微不足道的进步。我们还应该鼓励低碳供应商系统地选择与环保技术供应商合作,并在必要时测量和提高内部对碳计数的认识。
由技术驱动的偏见甚至是翻译中的“虚假”经历所引发道德问题的担忧,人们的反应可能会更加尖锐。人工智能驱动的翻译实践本身不可能导致“社会”偏见或故意造假,只会导致输出准确或不准确。因此,任何偏见都将从原文中转移——只有使用翻译才能使其真值“假”或“真”。“整个行业的组织都是为了防止客户向送信人开枪,然而,他们同意处理的信息是有偏见的!”
也就是说,服务供应商仍可能对用于构建自动翻译解决方案的数据集中的潜在偏见表示担忧。对此的回应可能是:译后编辑的作用就是为了消除呆板的机器产生的不必要的“偏见”。当然,有趣的是,我们能否教会这项技术能够自动地将潜在偏见(在“社会”意义上)与行业误译意义上的语义错误分辨开来。或者更微妙的是,准确无误地翻译某件事是否会在不知不觉中让人对某个特定的母语使用者产生偏见?展望未来,在某些情况下,对翻译准确性的追求可能需要社会包容性,以应对新语言用户群体的新规范。
类似地,如上所述,自动生成的源文本(例如通过GPT-2解决方案的原文本)未经检查就进入翻译流程是否存在风险,从而增加了内置偏差的可能性?在回答这些问题之前,我们需要对细节有更清晰的技术把握,以及更好的高风险案例。
最后,对于翻译供应商来说,可能有人认为优先采用开源技术解决方案是一种道德实践。这将意味着更倾向于支持操作系统的技术供应商的服务,以确保技术选择不局限于少数大公司的产品,并支持进一步的研究和创新。而且,正如Jean Senellart所建议的,这可能会鼓励整个行业市场的数据和模型的货币化。
在该行业与客户和最终用户的对话中,可能会提出其他非技术道德问题。由于在针对某个国家或地区的内容包中没有包含给定的语言,例如,未能将重要的医疗或法律信息的本地语言版本包括在订单中,此时,供应商应该告知客户服务中可能存在的反包容或非同理心的行为,这个做法是相当可取的。
最终,这类行动可能演变成一个更广泛的“伦理与教育”议程,供应商借此努力确保以翻译为重点的人工智能解决方案能够系统地适应得不到充分服务的人群。但是,这也意味着该行业会向未知领域迈出积极的一步。
显然,所有这些议题都需要更丰富、更深入、更有见地的辩论。告诉我们你的想法!
责任编辑:ct
全部0条评论
快来发表一下你的评论吧 !