speech_asr 3 년 전
부모
커밋
4e7a8283be
1개의 변경된 파일1개의 추가작업 그리고 1개의 파일을 삭제
  1. 1 1
      funasr/datasets/large_datasets/utils/tokenize.py

+ 1 - 1
funasr/datasets/large_datasets/utils/tokenize.py

@@ -37,7 +37,7 @@ def tokenize(data,
     vad = -2
 
     if bpe_tokenizer is not None:
-        text = bpe_tokenizer.text2tokens(text)
+        text = bpe_tokenizer.text2tokens("".join(text))
 
     if seg_dict is not None:
         assert isinstance(seg_dict, dict)