HyperAIHyperAI

Command Palette

Search for a command to run...

Meta توظف مقاولين لتطوير شخصيات ذكاء اصطناعي مخصصة في أسواق ناشئة

تُعدّ Meta خطوة جريئة في توسّعها في مجال الذكاء الاصطناعي من خلال توظيف عمال مؤقتين في الولايات المتحدة للعمل مع خبراء محليين في أسواق ناشئة رئيسية مثل الهند وإندونيسيا والمكسيك، بهدف تصميم شخصيات لروبوتات المحادثة المدعومة بالذكاء الاصطناعي. ووفقًا لوصف وظائف نُشرت هذا العام وتم مراجعتها من قبل "بزنيس إنسايدر"، تدفع الشركة ما يصل إلى 55 دولارًا في الساعة لعمال يتقنون اللغة الهندية أو الإندونيسية أو الإسبانية أو البرتغالية، ويُطلب منهم توجيه الإبداع وتشكيل شخصيات محادثات ذكية تتناسب مع السياقات الثقافية واللغوية في تلك الدول، وذلك عبر منصات إنستغرام ومسنجر وواتساب. الوظائف تتطلب خبرة لا تقل عن ست سنوات في السرد القصصي وإنشاء الشخصيات، إلى جانب معرفة بـ"هندسة المطالبات" (prompt engineering) وسير عمل إنتاج المحتوى باستخدام الذكاء الاصطناعي. هذا التوجه يعكس تحوّلًا استراتيجيًا من نموذج الاعتماد على نجوم ومؤثرين سابقًا، حيث أطلقت Meta في 2023 شخصيات مبنية على أشخاص مشهورين مثل كيندال جينر وسnoop دوغ وتوم برايدي، لكنها أوقفت هذه المبادرة بعد أقل من عام، وانتقلت إلى نموذج مفتوح يتيح لأي شخص إنشاء روبوتات محادثة عبر منصة "AI Studio"، التي أصبحت متاحة حاليًا في الولايات المتحدة وإندونيسيا. رغم توفر الأدوات للمستخدمين العاديين، فإن توظيف متعاقدين محليين يدل على أن Meta تسعى لفرض بصمة أكثر تأثيرًا وتميّزًا في الأسواق الناشئة، حيث تُعدّ شخصيات محادثات واقعية ومحفّزة على الارتباط العاطفي جزءًا من رؤيتها لتمديد تأثيرها الاجتماعي. وقد صرّح الرئيس التنفيذي مارك زوكربيرغ بأن هذه الروبوتات قد تصبح يومًا ما جزءًا طبيعيًا من العلاقات الإنسانية، وتساعد في تعميق الترابط الرقمي. لكن هذه المبادرة تثير مخاوف متزايدة. وفقًا لتقرير لوكالة رويترز، سمح قواعد داخلية في Meta لروبوتاتها بالمشاركة في محادثات جنسية ورومانسية مع قُصّر، ونشر معلومات طبية غير دقيقة، وانتاج محتوى عنصري. وقد دفع هذا إلى دعوات من مشرعين أمريكيين لإجراء تحقيقات في سياسات الشركة، رغم تعديلها لسياسات المراقبة. كما تُظهر تقارير إخبارية مخاوف حول الخصوصية، إذ وُجد أن مراجعي الذكاء الاصطناعي في Meta كانوا يرون معلومات شخصية حساسة مثل أسماء المستخدمين، عناوين بريد إلكتروني، أرقام هواتف، وحتى صور شخصية، ما يُبرز خطر تسرب البيانات عند إشراك البشر في مراقبة المحادثات. في الولايات المتحدة، اشتُهِر بعض الشخصيات مثل "فتاة روسية" و"أخت زوجة" و"والدة زوجة"، التي تُستخدم في أدوار جنسية صريحة، ما أثار انتقادات علنية، منها سخرية من موظف في OpenAI من رئيس الذكاء الاصطناعي في Meta. أما في إندونيسيا، فقد كانت شخصيات "امرأة وحيدة" و"رجل شاذ" من أكثر الشخصيات شعبية، رغم أن تجاربنا لم تُظهر تجاوزات جنسية، لكن أسماءها تُبرز التوازن الصعب بين الجذب والمخاطر الوظيفية. تُعلن Meta عن هذه الوظائف من خلال شركات توظيف مثل "كريستال إيكيوشن" و"أكuent تالنت"، دون أن ترد أي منهما على طلبات التعليق.

الروابط ذات الصلة