
يُشكِّل تقسيم الكلام (Speech Tokenization) أساس نماذج لغة الكلام (LM)، مما يمكّنها من أداء مهام مختلفة مثل نمذجة اللغة المنطوقة، تحويل النص إلى كلام، وتحويل الكلام إلى نص، وغيرها. يتم تدريب معظم محولات تقسيم الكلام بشكل مستقل عن عملية تدريب النموذج اللغوي، مع الاعتماد على نماذج صوتية منفصلة وطرق التكميم. قد يؤدي اتباع هذا النهج إلى وجود عدم توافق بين عملية التقسيم واستخدامها فيما بعد. في هذه الدراسة، نقترح نهجًا جديدًا لتدريب محول تقسيم الكلام من خلال الاستفادة من الأهداف المستخلصة من النماذج اللغوية المدربة مسبقًا للنص. ندعو إلى دمج هذا الهدف في عملية تعلم التمثيلات الصوتية المتقطعة. هدفنا هو تحويل الخصائص من نموذج الكلام المدرب مسبقًا إلى فضاء خصائص جديد يُمكِّن من التجميع الأفضل لنماذج لغة الكلام. قمنا بدراسة تأثير الخيارات المختلفة في تصميم النموذج، بما في ذلك حجم مفردات الكلام وحجم النموذج اللغوي للنص. تظهر نتائجنا أن الطريقة المقترحة للتقسيم تتفوق على القواعد الأساسية المُقيَّمة عند النظر في كلٍ من نمذجة اللغة المنطوقة وتحويل الكلام إلى نص. وأهم من ذلك، على عكس الأعمال السابقة، فإن الطريقة المقترحة تسمح باستخدام نموذج لغوي مدرب مسبق واحد فقط لمعالجة كلٍ من إدخالات الكلام والنص، مما يميزها عن طرق التقسيم التقليدية.