تحول المكالمات الصوتية لخدمة العملاء إلى معلومات قابلة للتنفيذ باستخدام الذكاء الصوتيف
التحليلات المدعومة بالذكاء الاصطناعي لاتصالات العملاء: من الصوت إلى الإجراء تحتوي مكالمات الدعم للعملاء على كم هائل من المعلومات، ولكن إيجاد الوقت الكافي لفحص هذه التسجيلات يدوياً بحثاً عن الرؤى ليس بالأمر السهل. تخيل أن بإمكانك تحويل هذه التسجيلات الطويلة إلى ملخصات واضحة بشكل فوري، وتتبع تغيرات مشاعر العملاء خلال المكالمة، والحصول على رؤى مخصصة بناءً على كيفية تحليلك للمحادثة. يبدو هذا مفيداً، أليس كذلك؟ في هذا المقال، سنستعرض بناء أداة عملية أنشأتها وسميتها "SnapSynapse" والتي تحقق المهمة المذكورة أعلاه. ستستخدم الأداة أدوات مثل pyannote.audio لاكتشاف المتحدثين (التعرف عليهم)، وWhisper لإنتاج النص من الصوت، وGemini-1.5 Pro لإنشاء ملخصات مدعومة بالذكاء الاصطناعي. سأوضح كيف يمكنك تلقائياً تحويل تسجيلات مكالمات الدعم إلى رؤى يمكن تنفيذها، وكيفية تنظيف وتحسين النصوص المكتوبة، وإنشاء ملخصات مخصصة بناءً على مدخلات المستخدم، وتتبع اتجاهات المشاعر - كل ذلك باستخدام أكواد برمجية سهلة المتابعة. أهداف التعلم: اكتشاف المتحدثين: استخدام pyannote.audio لتحديد المتحدثين في التسجيلات الصوتية. تحويل الصوت إلى نص: استغلال Whisper لتحويل المكالمات الصوتية إلى نصوص مكتوبة. إنشاء ملخصات ذكية: استخدام Gemini-1.5 Pro لإنشاء ملخصات دقيقة ومفصلة بناءً على البيانات النصية. تنظيف وتحسين النصوص: تقنيات لتحسين جودة النصوص وإزالة الأخطاء الشائعة. تحليل المشاعر: تتبع التغيرات في مشاعر العملاء خلال المكالمة وفهم الاتجاهات العاطفية. تطبيق عملي: خطوات محددة لبناء الأداة واستخدامها في بيئتك العملية. الخطوة الأولى: اكتشاف المتحدثين إحدى التحديات الرئيسية في تحليل مكالمات العملاء هي تحديد من يتحدث في أي وقت. هنا يأتي دور pyannote.audio، أداة قوية للمساعدات الصوتية تقوم بفصل المتحدثين في التسجيلات الصوتية. يمكنك تركيبها بسهولة باستخدام pip: bash pip install pyannote.audio بعد التركيب، ستنشئ كودًا بسيطًا لتحليل التسجيلات وتحديد المتحدثين: ```python from pyannote.audio import Pipeline pipeline = Pipeline.from_pretrained("pyannote/speaker-diarization") diarization = pipeline("/path/to/your/audio/file.wav") for turn, _, speaker in diarization.itertracks(yield_label=True): print(f"Speaker {speaker}: {turn.start:.1f}s - {turn.end:.1f}s") ``` الخطوة الثانية: تحويل الصوت إلى نص بعد تحديد المتحدثين، الخطوة التالية هي تحويل الصوت إلى نص. هنا، سنستخدم Whisper، وهي أداة فعالة جداً لتحويل الكلام إلى نص، ويمكن تركيبها بسهولة: bash pip install git+https://github.com/openai/whisper.git ستقوم بكتابة كود لتحويل التسجيلات الصوتية إلى نصوص مكتوبة: ```python import whisper model = whisper.load_model("base") result = model.transcribe("/path/to/your/audio/file.wav") print(result["text"]) ``` الخطوة الثالثة: إنشاء ملخصات ذكية بمجرد الحصول على النص، يمكنك استخدام Gemini-1.5 Pro لإنشاء ملخصات دقيقة ومفصلة بناءً على البيانات النصية. هذا الأداة تعتمد على الذكاء الاصطناعي لتوفير ملخصات يمكنها توضيح النقاط الرئيسية في المكالمة: bash pip install gemini-1.5-pro وستقوم بكتابة الكود التالي لإنشاء الملخص: ```python from gemini_1_5_pro import summarize summary = summarize(result["text"], max_length=100) print(summary) ``` الخطوة الرابعة: تنظيف وتحسين النصوص قبل استخدام النص في التحليلات، من المهم تنظيفه وإزالته من الأخطاء الشائعة. يمكنك استخدام مكتبة مثل NLTK لتنفيذ هذه المهمة: bash pip install nltk وهنا مثال لكود يقوم بتنظيف النص: ```python import nltk nltk.download('punkt') from nltk.tokenize import sent_tokenize cleaned_text = result["text"].replace("um", "").replace("uh", "").replace("ah", "") sentences = sent_tokenize(cleaned_text) for sentence in sentences: print(sentence) ``` الخطوة الخامسة: تحليل المشاعر فهم المشاعر والعواطف في مكالمات العملاء يمكن أن يوفر رؤى قيمة. يمكنك استخدام أدوات مثل TextBlob لتحليل المشاعر: bash pip install textblob وكتابتك للكود التالي لتتبع اتجاهات المشاعر: ```python from textblob import TextBlob sentiment_scores = [] for sentence in sentences: blob = TextBlob(sentence) sentiment_scores.append(blob.sentiment.polarity) print(sentiment_scores) ``` الخطوة السادسة: تطبيق عملي أخيراً، سنجمع كل هذه الخطوات في أداة واحدة يمكن استخدامها بسهولة. إليك مثالاً على كيفية تطبيق هذه الأدوات في مشروعك: ```python from pyannote.audio import Pipeline import whisper from gemini_1_5_pro import summarize from textblob import TextBlob import nltk nltk.download('punkt') from nltk.tokenize import sent_tokenize اكتشاف المتحدثين pipeline = Pipeline.from_pretrained("pyannote/speaker-diarization") diarization = pipeline("/path/to/your/audio/file.wav") speakers = {} for turn, _, speaker in diarization.itertracks(yield_label=True): speakers[speaker] = speakers.get(speaker, []) + [turn] تحويل الصوت إلى نص model = whisper.load_model("base") result = model.transcribe("/path/to/your/audio/file.wav") تنظيف النص cleaned_text = result["text"].replace("um", "").replace("uh", "").replace("ah", "") sentences = sent_tokenize(cleaned_text) إنشاء ملخصات ذكية summary = summarize(cleaned_text, max_length=100) تحليل المشاعر sentiment_scores = [] for sentence in sentences: blob = TextBlob(sentence) sentiment_scores.append(blob.sentiment.polarity) طباعة النتائج print("Diarization:") for speaker, turns in speakers.items(): print(f"Speaker {speaker}:") for turn in turns: print(f" {turn.start:.1f}s - {turn.end:.1f}s") print("\nSummary:") print(summary) print("\nSentiment Scores:") for score in sentiment_scores: print(score) ``` هذه الأداة ستتيح لك فهم أعمق لمكالمات الدعم للعملاء، وتوفير رؤى يمكن العمل عليها لتحسين تجربة العملاء بشكل كبير. من خلال تطبيق هذه الخطوات، يمكنك تحقيق أتمتة كاملة للعملية، مما يوفر الوقت والجهد ويحسن الجودة بشكل عام.