huggingface-transformers
-
BertForSequenceClassification Class 和我的自定义 Bert Classification 之间的指标不匹配
-
RobertaForSequenceClassification 的对数和概率代表什么?
-
ValueError: You have to specify either decoder_input_ids or decoder_inputs_embeds
-
BertModel 转换器输出字符串而不是张量
-
ValueError: logits and labels must have the same shape ((1, 21) vs (21, 1))
-
如何使用注意掩码计算 mean/max 的 HuggingFace Transformers BERT 令牌嵌入?
-
确保 BERT 模型不加载预训练权重?
-
如何在 Transformers 库中截断 Bert 分词器
-
RuntimeError: The size of tensor a (4000) must match the size of tensor b (512) at non-singleton dimension 1
-
使用 HuggingFace 库在 Pytorch 中训练 n% 最后一层 BERT(训练 12 个中的最后 5 个 BERTLAYER。)
-
将多个句子传递给 BERT?
-
huggingface 模块中的梯度返回 None
-
SpacyBert/SpacyCake 无法对张量执行归约函数 max
-
如何使用来自变压器的管道,总结? Python
-
从 huggingface 特征提取管道获取句子嵌入
-
Transformers 获得单词而不是标记的命名实体预测
-
BERT 总是预测相同的 class(微调)
-
使用 CLI 命令训练 BERT
-
下载 huggingface 预训练模型
-
RobertaTokenizer() 和 from_pretrained() 初始化 RobertaTokenizer 的方式有什么区别?