预训练模型最开始是在图像领域提出的,获得了良好的效果,近几年才被广泛应用到自然语言‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌处理各项任务中。

  • (1)2003年Beng‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌io提出神经网络语言模型NNLM,从此统一了NLP的特征形式——Embedding;

  • (2)2013年Mikolov提出词向量Word2vec,延续NNL‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌M又引入了大规模预训练(Pretrain)的思路;

  • (3)2017年Vaswani提出Tra‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌nsformer模型,实现用一个模型处理多种NLP任务。

  • (4) 基‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌于Transformer架构,2018年底开始出现一大批预训练语言模型(3个预训练代表性模型BERT[2018]、XLNet[2019]和MPNet[2020]),刷新众多NLP任务,形成新的里程碑事件。

预训练模型的应‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌用通常分为两步:

  • ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌第一步:在计算性能满足的情况下用某个较大的数据集训练出一个较好的模型。

  • 第‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌二步:根据不同的任务,改造预训练模型,用新任务的数据集在预训练模型上进行微调。

预训练模型的好处是训练代价较小,配合下游任务可以实现更快的收敛速度,并且能够有效地提高模型性能,尤其是对一些训练数据比较稀缺的任务。换句话说,预训练‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌方法可以认为是让模型基于一个更好的初始状态进行学习,从而能够达到更好的性能。

要讲自然‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌语言的预训练,得先从图像领域的预训练说起。

图像领域的预训练

设计好网络结构以后,对于图像来说一般是CNN的多层叠加网络结构,可以先用某个训练集合比如训练集合A或者训练集合B对这个网络进行预先训练,在A任务上或者B任务上学会网络参数,然后存起来以备后用。假设我们面临第三个任务‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌C,网络结构采取相同的网络结构,在比较浅的几层CNN结构,网络参数初始化的时候可以加载A任务或者B任务学习好的参数,其它CNN高层参数仍然随机初始化。

之后我们用C任务的训练数据来训练网络,此时有两种做法,一种是浅层加载的参数在‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌训练C任务过程中不动,这种方法被称为“Frozen”;

另外一种是底层网络参数尽管被初始化了,在C任务训练过程中仍然随着训练的进程不断改变,这种一般叫“Fine-Tunin‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌g”,顾名思义,就是更好地把参数进行调整使得更适应当前的C任务。

对于层级的CNN结构来说,不同层级的神经元学‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌习到了不同类型的图像特征,由底向上特征形成层级结构。

如果我们手头是个人脸识别任务,训练好网络后,把每层神经元学习到的特征可视化肉眼看一看每层学到了啥特征,你会看到最底层的神经元学到的是线段等特征,图示的第二个隐层学到的是人脸五官的轮廓,第三层学到的‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌是人脸的轮廓,通过三步形成了特征的层级结构,越是底层的特征越是所有不论什么领域的图像都会具备的比如边角线弧线等底层基础特征,越往上抽取出的特征越与手头任务相关。

正因为此,所以预训练好的网络参数,尤其是底层的网络参数抽取出特征跟具体任务越无关,越具备任务的通用性,所以这是为‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌何一般用底层预训练好的参数初始化新任务网络参数的原因。

而高层特征跟任务关联较大,实际可以不用使用,或者采用Fine-tuning用新数据集合清洗掉高层无关的特征抽‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‌‌取器。

一般我‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌们用ImageNet来做网络的预训练,主要有两点,一方面ImageNet是图像领域里有超多事先标注好训练数据的数据集合,分量足是个很大的优势,量越大训练出的参数越靠谱;另外一方面因为ImageNet有1000类,类别多,算是通用的图像数据,跟领域没太大关系,所以通用性好。

Word Embedding

现有‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌的机器学习方法往往无法直接处理文本数据,因此需要找到合适的方法,将文本数据转换为数值型数据,由此引出了Word Embedding的概念,Word Embedding算法携带了语义信息且维度经过压缩便于运算。

语言模型

为了能够量化地衡量哪个句子更像一句人话,可以设计如上图所示函数,核心函数P的思想是根据句子里面前面的一系列前导单词预测‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌后面单词的概率大小。

神经网络语言模型

NNLM是从语言模型出发(即计算概率角度),构建神经网络针对目标函数对模型进行最优化,训练的起点是使用神经网络去搭建语言模型实现词的预测任务,并且在优化过程后模型‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌的副产品就是词向量。

Word2Vec

2013年最火的用语言模型做Word Embedding的工具是Word2Vec‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌,后来又出了Glove。

Word2Vec有两种训练方法,一种叫CBOW,核心思想是从一‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌个句子里面把一个词抠掉,用这个词的上文和下文去预测被抠掉的这个词;

第二种叫做Skip-gram,‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌和CBOW正好反过来,输入某个单词,要求网络预测它的上下文单词。

使用Word2Vec或者Glove,通‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌过做语言模型任务,就可以获得每个单词的Word Embedding。

Word Embedding的使用

我们有个NLP的下游任务,‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌比如QA,就是问答问题,所谓问答问题,指的是给定一个问题X,给定另外一个句子Y,要判断句子Y是否是问题X的正确答案。

句子中每个单词以Onehot形式作为输入,然后乘以Word Embedding矩阵Q,就直接取‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌出单词对应的Word Embedding。

使用Word Embedding等价‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌于把Onehot层到embedding层的网络用预训练好的参数矩阵Q初始化。

这跟前面讲的图像领域的低层预训练过程其实是一‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌样的,区别无非Word Embedding只能初始化第一层网络参数,再高层的参数就无能为力了。

下游NLP任务在使用Word Embedding的时候也类似图像有两种做法,‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌一种是Frozen,就是Word Embedding那层网络参数固定不动;另外一种是Fine-Tuning,就是使用新的训练集合训练,在训练过程中,更新Word Embedding这层参数。

Word Embedding的问题

是多义词问题。多义词是自然语言中经常出现的现象,也是语言灵活性和高效性的一‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌种体现。

多义词对Word Embedding来说有什么负面影响?如上图所示,比如多义词Bank,有两个常用含义,但是Word Embedding在对bank这个单词进行编码的时候,是区分不开这两个含义的,因为它们尽管上下文环境中出现的单词不同,但是在用语言模型训练的时候,不论什么上下文的句子经过word2vec,都是预测相同的单词bank,而同一个单词占的是同一行的参数空间,这导致两种不同的上下文信息都会编码到相同的word embedding空间里去。所以word embe‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌dding无法区分多义词的不同语义,这就是它的一个比较严重的问题。

从Word Embedding到ELMO

ELMO是“Embedding from Language Models”的简称。在此之前的Word Embedding本质上是个静态的方式,所谓‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌静态指的是训练好之后每个单词的表达就固定住了,以后使用的时候,不论新句子上下文单词是什么,这个单词的Word Embedding不会跟着上下文场景的变化而改变。

ELMO的本质思想是:事先用语言模型学好一个单词的Word Embedding,此时多义词无法区分,实际使用Word Emb‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌edding的时候,单词已经具备了特定的上下文了,这个时候可以根据上下文单词的语义去调整单词的Word Embedding表示,这样经过调整后的Word Embedding更能表达在这个上下文中的具体含义,自然也就解决了多义词的问题了。所以ELMO本身的思路是根据当前上下文对Word Embedding动态调整。

ELMO采用了典型的两阶段过程,第一个阶段是利用语言模型进行预训练;第二个阶段是在做下游任务时,从预训练网络中提取对应单词的网络各层的Word Embedding作为新特征补充到下游‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌任务中。

使用这个网络结构利用大量语料做语言模型任务就能预先训练好这个网络,如果训练好这个网络后,输入一个新句子 ,句子中每个单词都能得到对应的三个Embedding:最底层是单词的Word Embedding,往上走是第一层双向LSTM中对应单词位置的Embedding,这层编码单词的句法信息更多一些;再往上走是第二层LSTM中对应单词位置的Embedding,这层编码单词的语义信‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌息更多一些。也就是说,ELMO的预训练过程不仅仅学会单词的Word Embedding,还学会了一个双层双向的LSTM网络结构,而这两者后面都有用。

上图展示了下游任务的使用过程,比如我们的下游任务仍然是QA问题,此时对于问句X,我们可以先将句子X作为预训练好的ELMO网络的输入,这样句子X中每个单词在ELMO网络中都能获得对应的三个Embedding,之后给予这三个Embedding中的每一个Embedding一个权重a,这个权重可以‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌学习得来,根据各自权重累加求和,将三个Embedding整合成一个。然后将整合后的这个Embedding作为X句在自己任务的那个网络结构中对应单词的输入,以此作为补充的新特征给下游任务使用。对于上图所示下游任务QA中的回答句子Y来说也是如此处理。因为ELMO给下游提供的是每个单词的特征形式,所以这一类预训练的方法被称为“Feature-based Pre-Training”。

从Word Embedding到GPT

GPT是“Generative Pre-Training”的简称,从名字看其含义是指的生成式的预训练‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌。GPT也采用两阶段过程,第一个阶段是利用语言模型进行预训练,第二阶段通过Fine-tuning的模式解决下游任务。

Transformer

Transformer是个叠加的“自注意力机制(Self Attention)”构成的深度网络‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌,是目前NLP里最强的特征提取器。

Transformer 是一种基于 encoder-decoder 结构的模型. 在机器翻译任务上的表现超过了 RNN,CNN,只‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌用 encoder-decoder 和 attention 机制就能达到很好的效果,最大的优点是可以高效地并行化。

自注意力机制模型

人类视觉通过快速扫描全局图像,获得需要重点关注的目标区域,也就是一般所说的注意力焦点,而后对这一区域投入更多注意力资源,以‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌获取更多所需要关注目标的细节信息,而抑制其他无用信息。

这是人类利用有限的注意力资源从大量信息中快速‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌筛选出高价值信息的手段.

深度学习中的注意力机制从本质上讲和人类的选择性视觉注意力机制类似,核心目标也是从众多信息中选择出对当‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌前任务目标更关键的信息。

Att‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌ention在同一个英语句子内单词间产生的联系。

Self At‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌tention可以捕获同一个句子中单词之间的一些句法特征(比如图展示的有一定距离的短语结构)或者语义特征(比如图展示的its的指代对象Law)。

很明显,引入Self Attention后会更容易捕获句子中长距离的相互依赖的特征,因为如果是RNN或者LSTM,需要依次序序列‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌计算,对于远距离的相互依赖的特征,要经过若干时间步步骤的信息累积才能将两者联系起来,而距离越远,有效捕获的可能性越小。

SelfAttention在计算过程中会直接将句子中任意两个单词的联系通过一个计算步骤直接联系起来,所以远‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌距离依赖特征之间的距离被极大缩短,有利于有效地利用这些特征。除此外,SelfAttention对于增加计算的并行性也有直接帮助作用。这是为何Self Attention逐渐被广泛使用的主要原因。

GPT如何使用

把任务的网络结构改造成和GPT的网络结构是一样的。然后,在做下游任务的时候,利用第一步预训练好的参数初始化GPT‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌的网络结构,对网络参数进行Fine-tuning,使得这个网络更适合解决手头的问题。

从GPT和ELMO及word2Vec到Bert

Bert采用和GPT完全相同的两阶段模型,首先是语言模型‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌预训练;其次是使用Fine-Tuning模式解决下游任务。和GPT的最主要不同在于在预训练阶段采用了类似ELMO的双向语言模型,当然另外一点是语言模型的数据规模要比GPT大。

BERT本质上是一个自编码(Auto Encoder)语言模型,‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌为了能见多识广,BERT使用3亿多词语训练,采用12层双向Transformer架构。注意,BERT只使用了Transformer的编码器部分,可以理解为BERT旨在学习庞大文本的内部语义信息。

具体训练目标之一,是被称为掩码语言模型的MLM。即输入一句话,给其中15%的字打上“mask”标记,经过Embedding‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌输入和12层Transformer深度理解,来预测“mask”标记的地方原本是哪个字。

‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌2
input:   欲把西[mask]比西子,淡[m‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌ask]浓抹总相宜
output: 欲把西[湖]比西子,淡[妆‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌]浓抹总相宜

例如我们输入“欲把西[mask]比西子,淡[mask]浓抹总相宜”给BERT,它需要根据没‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‌‌有被“mask”的上下文,预测出掩盖的地方是“湖”和“妆”。

MLM任务的灵感来自于人类做完形填空。挖去文‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌章中的某些片段,需要通过上下文理解来猜测这些被掩盖位置原先的内容。

训练目标之二,是预测输入的两句话之间是否为‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌上下文(NSP)的二分类问题。继续输入“ 欲把西[湖]比西子,淡[妆]浓抹总相宜”,BERT将预测这两句话的组合是否合理(这个例子是“yes”)。(随后的研究者对预训练模型探索中证明,NSP任务过于简单,对语言模型的训练作用并不是很大)

通过这两个任务和大规模语料训练,BERT语言模型可以很好学习‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‌‌到文本之间的蕴含的关系。

NLP的四大任务

绝大部分NLP问题‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌可以归入上图所示的四类任务中:

一‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌类是序列标注,这是最典型的NLP任务,比如中文分词,词性标注,命名实体识别,语义角色标注等都可以归入这一类问题,它的特点是句子中每个单词要求模型根据上下文都要给出一个分类类别。

第二类是分类任务,比如我们常见的文本分类,情感计算等都可以归入这一类。它的特点是不管文章有多长,总体‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌给出一个分类类别即可。

第三类任务是句子关系‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌判断,比如Entailment,QA,语义改写,自然语言推理等任务都是这个模式,它的特点是给定两个句子,模型判断出两个句子是否具备某种语义关系;

第四类是生成式任务,比如机器翻译,文本摘要,写诗造句,看图说话等都属于这一类。它的特点是输入‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌文本内容后,需要自主生成另外一段文字。

根据任务选择不同的预训练数据初始化encoder和de‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌coder即可。这是相当直观的一种改造方法。当然,也可以更简单一点,比如直接在单个Transformer结构上加装隐层产生输出也是可以的。不论如何,从这里可以看出,NLP四大类任务都可以比较方便地改造成Bert能够接受的方式。这其实是Bert的非常大的优点,这意味着它几乎可以做任何NLP的下游任务,具备普适性,这是很强的。

BERT的应用案例

下载bert预训练模型

Google - BERT源码https://github.com/google-research/bert下载预训练模型。

我这里选择中文的BERT,下载解压‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌后的目录如下:

安装bert-as-service

顾名思‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌义,将BERT模型直接封装成一个服务,堪称上手最快的BERT工具。作者是肖涵博士。

使用p‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌ip安装:

‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌2
pip i‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌nstall bert-serving-server # server
pip install bert-serving-client # client, independent of `bert-serv‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌ing-server

开启BE‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌RT service

‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
bert-serving-start ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌-model_dir E:\nlp\chinese_L-12_H-768_A-12

使‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌用客户端获取句子编码

案例一 查找最相近的句子

根据bert获取句子向量,并计算出句子之间的余弦相似度,找出最相似的句‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌子。

‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌3
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌4
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌5
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌6
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌7
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌8
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌9
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌10
1‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌1
1‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌13
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌14
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌15
1‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌6
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌17
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌18
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌19
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌20
2‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌1
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌22
2‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌3
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌24
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌25
2‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌6
2‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌7
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌28
2‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌9
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌30
3‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌1
3‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌33
3‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌4
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌35
3‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌6
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌37
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌38
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌39
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌40
4‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌1
4‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌2
4‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌3
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌44
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌45
4‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌6
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌47
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌48
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‌‌49
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌50
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌51
5‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌2
# 导入bert客‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‌‌户端
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌from bert_serving.client impor‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌t BertClient
impor‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌t numpy ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌as np

‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌class Sim‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌ilarModel:
d‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌ef _‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌_init__(s‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌elf):
self‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌.bert_client = BertClient()

d‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌ef clos‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌e_bert(s‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌elf):
self.‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌bert_client .close()

d‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌ef get_sentence_‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌vec(self,se‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌ntence):
'''
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌ 根据bert获取句子向量
:param sent‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌ence:
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌ :return:
'''
retur‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌n self.bert_client .encode([sentence])[‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌0]

d‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌ef cos_si‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌milar(self,sen_a_vec, s‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌en_b_vec):
'''
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌ 计算两个句子的余弦相似度
:pa‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌ram sen_a_vec:
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌ :param sen_b_vec:
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌ :return:
'''
vector_a = np.mat‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌(sen_a_vec)
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‌‌vector_b = np.mat(sen_b_vec)
num = float(vector_a * vector_b‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌.T)
denom = np.linalg.norm(‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌vector_a) * np.linalg.norm(vector_b)
cos = n‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌um / denom
retur‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌n cos

i‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌f __name__=='__main__':
# 从候选集condinates‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌ 中选出与sentence_a 最相近的句子
condinates = ['为什么天空是蔚蓝色的','太空为什么是黑的?','天空怎么是蓝色的','明天去爬山如何']
sentence_a = '天空为什么是蓝色的'
bert_client = Similar‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌Model()
max_cos_similar = ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌0
most_similar_sentence = ''
f‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌or sentence_b i‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌n condinates:
sentence_a_vec = bert_client.get_se‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌ntence_vec(sentence_a)
sentence_b_vec = bert_client.get_sen‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌tence_vec(sentence_b)
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌cos_similar = bert_client.cos_similar(sentence_a_vec,sentence_b_vec)
i‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌f cos_similar > max_cos_similar:
max_cos_similar = ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌cos_similar
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌ most_similar_sentence = sentence_b

print('最相似的句子:',most_similar_sentence)
bert_client .‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌close_bert()
# 为什‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌么天空是蔚蓝色的

案例二 简单模糊搜索

将‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌问题编码为向量:

‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌from bert_serving.client impor‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌t BertClient
doc_vecs = bc.encode(questions‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌)

最后,我们准备接收新查询并针对现有问题执行简单的“模糊”搜索。为此,每次出现新查询时,我们都将其编码为向量,并使用来计算其点积doc‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌_vecs。将结果递减排序;并返回前k个类似的问题,如下所示:

‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌3
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌4
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌5
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌6
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌7
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌8
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌9
wh‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌ile T‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌rue:
query = input('your question: ')
query_vec = bc.encode([query])[‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌0]
# com‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌pute normalized dot product as score
score = np.sum(query_vec * doc_vecs, axis=‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌1) / np.linalg.norm(doc_vecs, axis=‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌1)
topk_idx = np.argsort(score)[::-‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌1][:topk]
print('top %d questions similar to "%s"' % (topk, query))
f‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌or idx i‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌n topk_idx:
print('> %s\t%s' % ('%.1f' % score[idx], questions[idx]))

现在运行代码并键入查询,‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌查看此搜索引擎如何处理模糊匹配:

案例三 法条推荐

介绍

根‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌据刑事法律文书中的案情描述和事实部分,预测本案涉及的相关法条;

数据说明

所使用的数据集是来自“中国裁‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌判文书网”公开的刑事法律文书,其中每份数据由法律文书中的案情描述和事实部分组成,同时也包括每个案件所涉及的法条、被告人被判的罪名和刑期长短等要素。

数据集共包括268万刑法法律文书,共涉及202条罪名,183条法条,刑期长短包括0-25年、无期、‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌死刑。

数据利用‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌json格式储存,每一行为一条数据,每条数据均为一个字典。

fact‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌: 事实描述

meta: 标注信息,标注信息中包括‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌:

crimin‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌als: 被告(数据中均只含一个被告)

punish_of_money: ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌罚款(单位:元)

‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌accusation: 罪名

relevant_articles: 相‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌关法条

term_of_impris‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌onment: 刑期

刑期格式‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌(单位:月)

deat‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌h_penalty: 是否死刑

life_imprisonment‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌: 是否无期

imprisonmen‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌t: 有期徒刑刑期

这里是简‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌单的一条数据展示:

‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌3
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌4
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌5
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌6
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌7
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌8
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌9
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌10
1‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌1
1‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌13
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌14
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌15
{
"fact": "2015年11月5日上午,被告人胡某在平湖市乍浦镇的嘉兴市多凌金牛制衣有限公司车间内,与被害人孙某因工作琐事发生口角,后被告人胡某用木制坐垫打伤被害人孙某左腹部。经平湖公安司法鉴定中心鉴定:孙某的左腹部损伤已达重伤二级。",
"meta":
{
"relevant_articles": [23‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌4],
"accusation": ["故意伤害"],
"criminals": ["胡某"],
"term_of_imprisonment":
{
"death_penalty": false,
"imprisonment": ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌12,
"life_imprisonment": false
}
}
}

实现流程

进入 OpenCLaP 下载刑事文书BERT,并运行bert-as-service服务。

创建一个连接到BertServer的BertClient
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌from bert_serving.client impor‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌t ConcurrentBertClient
bc = ConcurrentBe‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌rtClient()
获取编码向量和标签
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌3
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌4
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌5
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌6
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌7
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌8
d‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌ef get_encode‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌s(‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌x):
# x ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌是 batch_size 大小的行 ,每行都是一个json对象
samples = [json.loads(l) f‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌or l i‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌n x] # 一个 batch_s‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌ize 大小的连续样本
text = [s['fact'][:‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌50] + s['fact'][-5‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌0:] f‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌or s i‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌n samples] # 获取案情描述和‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌事实部分文字
features = bc.encode(text) # 使用bert将字符串列表编码为向量列‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌表
#‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌ 随机选择一个标签
labels = [[str(random.choice(s['meta']['relevant_articles']))] f‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌or s i‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌n samples]
retur‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌n features, labels
构建TensorFlow DNN 模型的分类器
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌3
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌4
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌5
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌6
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌7
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌8
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌9
esti‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌mator = DNNClassifier(
hidden_units=[51‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌2], # 每层隐藏单元的 Iterable 数.所有层都‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌完全连接.
feature_columns=[tf.feature_column.numeric_column('feature', shape=(7‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌68,))], # 包含模型使用的所有特征列的iterable.集合中的所有项目都应该是从 ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌_FeatureColumn 派生的类的实例.
n_classes=len(laws), # 标签类的数量.默认为 2,即二进制‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌分类,必须大于1.
config=run_config, # RunConfig 对象配置运‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌行时设置
label_vocabulary=laws_str, # 字符串列表,表示可能的标签值.如果给定,标签必须是字符串类型,并且 label_vocabulary 具有任何值.如果没有给出,这意味着标签已经被编码为整数或者在[0,1]内浮动, n_classes=2 ;并且被编码为{0,1,...,n_classes-1}中的整数值,n_classes> 2.如果没有提供词汇表并且标签是字符串,也会出现错误.
optimizer=tf.train.AdamOptimizer(),# 优化‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌函数
dropout=0‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌.1 # 当不是 None ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌时,我们将放弃给定坐标的概率.
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌ )
训练和评估
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌3
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌4
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌5
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌6
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌7
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌8
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌9
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌10
1‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌1
1‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌13
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌14
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌15
1‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌6
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌17
# ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌输入函数
input_fn = lam‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌bda fp: (tf.data.TextLineDataset(fp) # TextLineDataset接口提供了一种方法从数据文件中读取。只需要提供文件名(1个或者多个)。这个接口会自动构造一个dataset,类中保存的元素:文中一行,就是一个元素,是stri‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌ng类型的tenser。
# map将分别对Dataset的每个元素执行一个函数,而apply将立即对‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌整个Dataset执行一个函数
.apply(tf.contrib.data.shuffle_and_repeat(buffer_size=‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌10000)) # repeat重复和shuffle重排 tf.data.Dataset.re‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‌‌peat 转换会将输入数据重复有限(或无限)次;每次数据重复通常称为一个周期。tf.data.Dataset.shuffle 转换会随机化数据集样本的顺序。
# ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌将此数据集的连续元素合并为批。
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌ .batch(batch_size)
# t‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌f.py_func()接收的是tensor,然后将其转化为numpy array送入我们自定义的get_encodes函数,最后再将get_encodes函数输出的numpy array转化为tensor返回
.map(lam‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌bda x: tf.py_func(get_encodes, [x], [tf.float32, tf.string], name='bert_client'),
num_para‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌llel_calls=num_parallel_calls)
.map(lam‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌bda x, y: ({'feature': x}, y))
.prefetch(‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌20)) # 创建一个从该数据集中预提取元素‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌的Dataset 大多数数据集输入管道应以调用结束prefetch。这允许在处理当前元素时准备以后的元素。这通常会提高延迟和吞吐量,但以使用额外的内存存储预取元素为代价。
# TrainSpe‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌c确定训练的输入数据以及持续时间
train_spec = TrainSpec(input_fn=lam‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌bda: input_fn(train_fp))
# EvalSpec结合了训练模型的计算和输‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌出的详细信息.计算由计算指标组成,用以判断训练模型的性能.输出将训练好的模型写入外部存储.
eval_spec = EvalSpec(input_fn=lam‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌bda: input_fn(eval_fp), throttle_secs=‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌0) # 第一次评估发生在throttl‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌e_secs秒后
# 训练和‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌评估
train_and_evaluate(estimator, train_spec, eval_‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌spec)
运行tensorboard可视化训练过程
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
tensorboa‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‌‌rd --logdir=law-model

案例四 互联网新闻情感分析

介绍

对新闻情绪进行分类,0代表正面情绪、1代表中性情绪、2代表负‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌面情绪。

数据说明

FieldTypeDescription
idString新闻ID News ID
textString新闻正文内容 Content of news text
labelString新闻情感标签 Emotional label in news

实现流程

加载数据集
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌1
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌3
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌4
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌5
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌6
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌7
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌8
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌9
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌10
1‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌1
1‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌2
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌13
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌14
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌15
d‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‌‌ef load_datase‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌t(f‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‌‌ilepath):
datas‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌et_list = []
f = open(filepath, 'r', encoding='utf-8')
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‌‌ r = csv.reader(f)
f‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌or item i‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌n r:
i‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌f r.line_num == ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌1:
co‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌ntinue
dat‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌aset_list.append(item)
‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌
# ‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‌‌空元素补0
f‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‌‌or item i‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‌‌n dataset_list:
i‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‌‌f item[‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌1].strip() == '':
item[‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‌‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‌‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‌‍‍‍‍‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‌‍‌‍‍‍‌‌‍‌‌1] = '0'

retur‌‌‍‍‍‌‍‌‍‌‍‌‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‍‍‍‍‍‍‍‌‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‍‍‌‍‌‍‍‌‍‍‍‍‌‍‍‍‌‍‌‍‍‍‌‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‍‌‍‍‍‍‍‍‌‍‌‍‍‍‍‍‍‌‍‍‍‍‍‍‌‍‍‍‌‍‌‍‌‌‍‍‍‍‍‍‍‍‌‍‍‍‌‍‌‌‍‍‍‍‌‍‌‍‌‍‌‍‌‌