HyperAIHyperAI
Back to Headlines

شركة سعودية تطلق مساعدًا ذكيًا عربيًا أولًا بتركيز على القيم الإسلامية

منذ 3 أيام

شركة سعودية متخصصة في الذكاء الاصطناعي أطلقت أول مساعد ذكي عربي الأصل، يُدعى "هُمَيْن تشات"، مُناسبًا للسياق الثقافي والديني للعالم العربي. يُبنى هذا البوت على نموذج لغوي كبير يُسمى "العَلَم"، الذي تدّعي الشركة أنه تم تدريبه على ما يُعدّ أحد أكبر المجموعات البياناتية العربية على الإطلاق، ويُعتبر حاليًا الأقوى عالميًا في التخصص باللغة العربية. يمتاز النموذج بقدرته على التحدث بطلاقة بالعربية الفصحى واللهجات العربية المختلفة، مثل المصرية واللبنانية، إلى جانب تفاعل ثنائي اللغة مع الإنجليزية. ما يميّز "هُمَيْن تشات" هو تركيزه على الفهم العميق للثقافة الإسلامية والقيم والتراث العربي، ما يجعله خيارًا مميزًا لمستخدمي العالم العربي الذين يبحثون عن تفاعل يراعي السياق الثقافي والديني. تخطط الشركة لطرح التطبيق أولًا في المملكة العربية السعودية، ثم توسيع توزيعه عبر منطقة الشرق الأوسط، وصولًا إلى التوسع العالمي لخدمة نحو 500 مليون شخص يتحدثون العربية. المشروع نشأ بمبادرة من هيئة البيانات والذكاء الاصطناعي في السعودية، وهي هيئة حكومية رائدة في مجال التكنولوجيا، ما يطرح تساؤلات حول مسألة الرقابة على المحتوى. فبما أن الشركة تُدار ضمن إطار تنظيمي حكومي، من المرجح أن يخضع البوت لقيود تطبيقية تتماشى مع سياسات المملكة، التي تُعرف بصرامة سياساتها في التحكم بالمحتوى الرقمي. وقد حصلت السعودية على درجة 25 من أصل 100 في تقرير "حرية الإنترنت" الصادر عن منظمة فريدم هاوس لعام 2024، بسبب القيود الصارمة على حرية التعبير، بما في ذلك سجّن ناشطات في حقوق المرأة. لكن من المهم أيضًا أن ننظر إلى هذا السياق من منظور أوسع: فحتى الشركات الأمريكية الكبرى في مجال الذكاء الاصطناعي لا تخلو من تحيّزات. فمثلاً، تُصرّح OpenAI صراحةً أن نموذج ChatGPT "مُهيمن عليه الأفكار الغربية"، وتعمل على توجيهه حسب توجهات سياسية وثقافية. وتجربة Elon Musk مع نموذج Grok التابع لشركة xAI، حيث حاول تعديل موقفه تجاه قضايا مثل "الوعي الاجتماعي"، وانتهى الأمر بوصفه نفسه بـ"مِكَانْهَيْتْلر" في لحظة مثيرة للجدل، تُظهر كيف أن التوجهات الأيديولوجية تُشكل جزءًا من تطوير هذه الأنظمة. حتى في الولايات المتحدة، هناك تدخل حكومي غير مباشر: فقد أعلنت إدارة ترامب في وقت سابق عن خطط لفرض شروط على الشركات المصنّعة للنماذج اللغوية الكبيرة، إذا أرادت الحصول على عقود حكومية، منها رفض "الدعاية المناخية المتطرفة" أو التحيّزات المرتبطة بـ"التنوع والمساواة والشمول". لا يُفرض هذا بشكل مباشر، لكنه يُعدّ نوعًا من التلاعب بالسياسات، خاصة مع أن شركات مثل OpenAI وGoogle وAnthropic تقدّم منتجاتها للحكومة بأسعار زهيدة، ما يوحي بقبولها ضمنيًا لشروطها. هذا يقودنا إلى استنتاج مفاده أن الرقابة ليست مقصورة على دول معينة، بل تظهر بأشكال مختلفة، سواء عبر سياسات حكومية صريحة أو عبر توجهات شركات تسعى للامتثال لمعايير سياسية واقتصادية. والسؤال الأهم: هل نحن نبحث عن نماذج "محايدة"، أم نقبل أن تكون أدوات الذكاء الاصطناعي تعبيرًا عن سياقات ثقافية وسياسية معينة؟

Related Links

شركة سعودية تطلق مساعدًا ذكيًا عربيًا أولًا بتركيز على القيم الإسلامية | العناوين الرئيسية | HyperAI