Sora 2 يُظهر أن مستقبل الذكاء الاصطناعي وصل بالفعل — رائع ومثير للقلق في آنٍ واحد
يُعد تطبيق Sora 2 من OpenAI خطوة جوهرية نحو حقيقة الذكاء الاصطناعي التي تجاوزت الحدود النظرية، ودخلت عالم الواقع المُموّه بدرجة مذهلة. منذ تجربتي له، لم أعد أرى الذكاء الاصطناعي كأداة مساعدة فقط، بل كأداة تُعيد تعريف طريقة تفاعلنا مع الصور والفيديو. التطبيق يسمح للمستخدمين بتحميل صورهم وإنشاء مقاطع فيديو واقعية باستخدام صورهم، مع إمكانية توجيه الأوامر بأسلوب خيالي — مثل "أظهرني وأصدقائي نُسرق متجرًا" — مما أنتج فيديوهات مضحكة وغريبة، لكنها في الوقت نفسه مخيفة من حيث الواقعية. ما يميز Sora 2 عن غيره، مثل تطبيق Vibes من ميتا، هو قدرته على تضمين المستخدم نفسه في القصص، مما يخلق تجربة شخصية وعاطفية لم تكن متوفرة سابقًا. هذا التفاعل المباشر مع الذات الرقمية هو ما جعل التطبيق ممتعًا ومحفّزًا للاستكشاف، لكنه في المقابل يفتح الباب أمام مخاطر كبيرة. لأول مرة، أصبح بإمكان أي شخص إنشاء فيديو واقعي تقريبًا لشخص آخر — شهير أو غير شهير — باستخدام صورته فقط، دون موافقة، وبأقل جهد. الإشكالية ليست فقط في التسلية، بل في الاستخدامات الخبيثة المحتملة: الاحتيال، التهديدات، التشهير، نشر المعلومات الكاذبة، أو حتى استخدام الأشخاص في محتوى يُشوه سمعتهم دون علمهم. حتى أنني، كشخص عادي، شهدت فيديوًا مُصممًا بذكاء اصطناعي يُظهرني في موقف محرج — وهو ما لم يكن ليحدث من قبل بجودة مماثلة. هذا التحول يُعيد طرح سؤال جوهري: كيف نميز بين الحقيقة والوهم في عصر يُمكن فيه توليد واقع مُصطنع بسهولة؟ الواقع أن المشاهير، الذين يعتمدون على حقوق صورهم وصوتيهم كمصدر رئيسي للدخل، لم يُدمجوا على نطاق واسع في Sora 2 بعد، ما عدا سام ألتمان، الذي استخدمه فور إطلاقه في فيديو ساخر. لكن هناك استثناء مثير: جيك بول، نجم التواصل الاجتماعي والمقاتل، الذي أظهر تفاعلًا سريعًا مع التطبيق، وظهر في فيديوهات تروّج له بطريقة مبالغ فيها — حتى أن بعضها يُصوّره وهو يُعلّق على مقالات من Business Insider، وهو ما لا يمكن تأكيده. هنا تكمن المفارقة: هل هو فعلاً قال ذلك؟ لا، لكنه يُمكن أن يُقال. وهذا بالضبط ما يُقلق: القدرة على تضليل الجمهور بسهولة، دون أن يُدرك أحد الفرق. Sora 2 ليس مجرد أداة ترفيهية. إنه نموذج أولي لعالم جديد، حيث يصبح التلاعب بالواقع ممكنًا بضغطة زر. المخاوف ليست مبالغة، بل واقع مُحتمل. ونحن، كمجتمع، لم نعد جاهزين لهذا العالم. لا سياسات واضحة، ولا أخلاقيات مُتفق عليها، ولا أدوات للتمييز بين المحتوى الحقيقي والاصطناعي. لكن ما يبقى واضحًا: الذكاء الاصطناعي لم يعد قادمًا. هو هنا، ويعمل بالفعل. والسؤال الآن ليس "هل سيحدث؟" بل "ما الذي سنفعله به؟"