首页 > Web开发 > 详细

tokenizer.encode和tokenizer.tokenize

时间:2021-04-29 16:05:10      阅读:86      评论:0      收藏:0      [点我收藏+]

一个是返回token,一个是返回其在字典中的id,如下

 

 

技术分享图片

 

 技术分享图片

 

 

def bert_():
    model_name = bert-base-chinese
    MODEL_PATH = D:/xhzy-work/PURE/models/bert-base-chinese/

    # a.通过词典导入分词器
    tokenizer = BertTokenizer.from_pretrained(model_name)
    # b. 导入配置文件
    model_config = BertConfig.from_pretrained(model_name)
    # 修改配置
    model_config.output_hidden_states = True
    model_config.output_attentions = True
    # 通过配置和路径导入模型
    bert_model = BertModel.from_pretrained(MODEL_PATH, config=model_config)
    #sen_code = tokenizer.encode_plus(‘我不喜欢这世界‘, ‘我只喜欢你‘)
    sen_code = tokenizer.encode("自然语")
    print("sen_code",sen_code)
    sen_code0=tokenizer.tokenize("自然语")
    print("sen_code0", sen_code0)

    # input_ids = torch.tensor(tokenizer.encode("自然语")).unsqueeze(0)
    # print("input_ids",input_ids)
    # outputs = bert_model(input_ids)
    # print("outputs",outputs)
    # sequence_output = outputs[0]
    # pooled_output = outputs[1]
    # print("outputs",outputs)
    # print("sequence_output",sequence_output.shape)  ## 字向量
    # print("pooled_output",pooled_output.shape)  ## 句向量
    # print(‘tokenizer.cls_token‘,tokenizer.cls_token)


if __name__ == __main__:
    bert_()

 

tokenizer.encode和tokenizer.tokenize

原文:https://www.cnblogs.com/liuxiangyan/p/14717689.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!