speech_asr 3 年之前
父节点
当前提交
4e7a8283be
共有 1 个文件被更改,包括 1 次插入1 次删除
  1. 1 1
      funasr/datasets/large_datasets/utils/tokenize.py

+ 1 - 1
funasr/datasets/large_datasets/utils/tokenize.py

@@ -37,7 +37,7 @@ def tokenize(data,
     vad = -2
 
     if bpe_tokenizer is not None:
-        text = bpe_tokenizer.text2tokens(text)
+        text = bpe_tokenizer.text2tokens("".join(text))
 
     if seg_dict is not None:
         assert isinstance(seg_dict, dict)