Trapper: Transformer模型都在此!

Trapper(Transformers wrapper)是一个NLP库,旨在使基于下游任务的transformer模型的训练更加容易。该库提供transformer模型实现和训练机制,它为使用transformer模型时遇到的常见任务定义了带有基类的抽象。此外,它还提供了依赖注入机制,并允许通过配置文件定义训练和评估实验。通过这种方式,可以使用不同的模型、优化器等进行实验,只需在配置文件中更改它们的值,而无需编写任何新代码或更改现有代码。这些特性促进了代码重用,减少了代码.

github链接:

github.com/huggingface/

安装的方式非常简单,直接pip install trapper即可.

可以直接用训练好的模型做情感分析,填词等任务:

v2-a22a786cd76a250893e07ece660c121e_b.jpg

也可以轻松的进行finetune和预估,以下是pytorch方法,此外还支持keras:

v2-ef8b0f4f55984665199f26849877814d_b.jpg

v2-2f4e1bbe441acb68b0aed612d500e5b2_b.jpg


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部