shixian.shi 2 лет назад
Родитель
Сommit
1187f5937e
1 измененных файлов с 1 добавлено и 1 удалено
  1. 1 1
      funasr/datasets/large_datasets/utils/tokenize.py

+ 1 - 1
funasr/datasets/large_datasets/utils/tokenize.py

@@ -57,7 +57,7 @@ def tokenize(data,
     length = len(text)
     if 'hw_tag' in data:
         hotword_indxs = sample_hotword(length, **hw_config)
-        data[hotword_indxs] = hotword_indxs
+        data['hotword_indxs'] = hotword_indxs
         del data['hw_tag']
     for i in range(length):
         x = text[i]