HyperAI
Back to Headlines

جيفري هينتون، والد الذكاء الاصطناعي، يحذر من احتمال تطور الذكاء الاصطناعي لاستخدام لغة خاصة به لا نستطيع فهمها

منذ يوم واحد

يُعد جيفري هينتون، المعروف بـ"أب الذكاء الاصطناعي"، أحد أبرز المُرشحين لجائزة نوبل في الفيزياء لعام 2024، تقديراً لإنجازاته الرائدة في مجال التعلم الآلي. وفي مقابلة نُشرت في حلقة من بودكاست "One Decision" في 24 يوليو، حذر هينتون من خطر قد يواجه البشر في المستقبل، حيث قد يتطور الذكاء الاصطناعي إلى استخدام لغات داخلية خاصة به، لا يمكن للبشر فهمها. حاليًا، يعتمد الذكاء الاصطناعي على ما يُعرف بـ"سلسلة التفكير" (chain of thought) باللغة الإنجليزية، ما يسمح للمطورين بتعقب كيفية تفكيره واتخاذ قراراته. لكن هينتون أشار إلى أن هذا الوضع قد يتغير، قائلاً: "إذا طوّر الذكاء الاصطناعي لغة داخلية خاصة به للاتصال بين بعضه، فلن نعرف ماذا يفكر أو ما الذي يخطط له". وأضاف أن الذكاء الاصطناعي أظهر بالفعل قدرة على التفكير في أفكار "مروعة"، مما يثير مخاوف جدية حول التحكم فيه. رغم أن معظم الخبراء يعتقدون أن الذكاء الاصطناعي سيتفوق على البشر في الذكاء في المستقبل، إلا أن هينتون يحذر من أن هذا التفوق قد يُفقد البشر القدرة على فهم أو التحكم في ما يفعله الذكاء الاصطناعي. واعتبر أن الحل الوحيد لضمان عدم تحول الذكاء الاصطناعي ضدهم هو "إيجاد طريقة لجعله بالضرورة مُستفيدًا للبشر"، أي ضمان بنيته الأخلاقية والسلوكية. هينتون، الذي قضى أكثر من عقد في شركة جوجل، يُعد من أكثر المُنتقدين صراحة لخطورة الذكاء الاصطناعي، وانتقد قادة التكنولوجيا لتقديرهم المُبالغ في المخاطر، واصفاً إياهم بـ"إخفاء" التحديات الحقيقية التي قد تؤدي إلى فقدان وظائف على نطاق واسع. في الوقت نفسه، تتسارع الشركات التكنولوجية في سباق للاستحواذ على الكفاءات في مجال الذكاء الاصطناعي، وتسابق لتقديم رواتب هائلة لجذب الخبراء. وفي خطوة مُهمة، أصدر البيت الأبيض في 23 يوليو خطة عمل للذكاء الاصطناعي، تدعو إلى تقييد التمويل المخصص لمشاريع الذكاء الاصطناعي في الولايات ذات القوانين "الثقيلة"، وتشجع على تسريع بناء مراكز بيانات ضخمة لدعم تطوير الذكاء الاصطناعي. تُبرز هذه التطورات التحديات المزدوجة التي تواجه العالم: من جهة، التقدم السريع في الذكاء الاصطناعي وتأثيره المحتمل على الاقتصاد والمجتمع، ومن جهة أخرى، الحاجة الملحة إلى تنظيم فعّال وضمانات أخلاقية لضمان بقاء التكنولوجيا تحت السيطرة البشرية.

Related Links