أنثروبك يتصدر السباق نحو الذكاء الاصطناعي القابل للتفسير: ما الذي يعنيه بحث الشركة لاستراتيجية نماذج اللغة المعقدة في مؤسساتك؟
ملخص الأخبار العلمية والتكنولوجية حول استراتيجية Anthropic للذكاء الاصطناعي القابل للتفسير التاريخ: 17 يونيو 2025 المصدر: VentureBeat/Midjourney رئيس Anthropic يدعو إلى فهم كيفية تفكير نماذج الذكاء الاصطناعي في أبريل، دعا داريو أمودي، الرئيس التنفيذي لشركة Anthropic، إلى ضرورة فهم كيفية تفكير نماذج الذكاء الاصطناعي. هذا الدعوة يأتي في وقت حاسم، حيث تتنافس Anthropic مع أكبر مختبرات الذكاء الاصطناعي في العالم، مثل Google و OpenAI. منذ تأسيسها في عام 2021، عندما انفصل سبعة موظفين من OpenAI بسبب مخاوف حول سلامة الذكاء الاصطناعي، اعتمدت Anthropic على بناء نماذج تلتزم بمجموعة من المبادئ الإنسانية، وهي ما تسميه "Constitutional AI". هذه المبادئ تضمن أن النماذج تكون "مفيدة، صادقة، وخالية من الأذى" وتتصرف بما يخدم مصلحة المجتمع بشكل عام. تفوق Claude 3.7 Sonnet في اختبارات البرمجة كان نموذج Claude 3.7 Sonnet من Anthropic هو الرائد في اختبارات البرمجة عند إطلاقه في فبراير، مما أثبت أن نماذج الذكاء الاصطناعي يمكن أن تتفوق في الأداء والسلامة معًا. ومع ذلك، فإن الإصدارات الحديثة مثل Claude 4.0 Opus و Sonnet لا تزال تتفوق في مجالات أخرى مثل الرياضيات والكتابة الإبداعية والمنطق العام في العديد من اللغات، حيث يتفوق عليها منافسوها مثل Google’s Gemini 2.5 Pro و OpenAI’s o3. تطلع Anthropic للمستقبل يبدو أن Anthropic تستعد للمستقبل حيث ستكون سلامة النماذج والقيم الإنسانية حاسمة في مجالات مثل الطب، علم النفس، والقانون. يعتقد أمودي أن عدم القدرة على فهم آليات النماذج الداخلية يجعل من الصعب التنبؤ بالسلوكيات الضارة وبالتالي التعامل معها. في بيئات مالية عالية المخاطر أو مهام حرجة تتعلق بالأمان، تكون الشفافية في النماذج ضرورية لتقييد سلوكياتها وتجنب الأخطاء التي قد تكون ضارة. الاستثمار في Goodfire لتعزيز القابلية للتفسير لتوفير هذه الشفافية، شاركت Anthropic في استثمار بقيمة 50 مليون دولار في مختبر Goodfire، الذي يحقق تقدمًا كبيرًا في "فحص دماغ الذكاء الاصطناعي". يوفر منصة تفتيش النماذج الخاصة بهم، Ember، أداة محايدة تحدد المفاهيم المكتسبة داخل النماذج وتتيح للمستخدمين التحكم فيها. في عرض حديث، أظهرت Goodfire كيف يمكن لـ Ember تحديد مفاهيم بصرية فردية داخل نموذج توليد الصور ثم السماح للمستخدمين برسم هذه المفاهيم لإنشاء صور جديدة تتوافق مع تصميم المستخدم. وجهة نظر باحث في السلامة الاصطناعية لتقديم المزيد من السياق، أجرت VentureBeat مقابلة مع ساياش كابور، باحث السلامة في الذكاء الاصطناعي في جامعة برينستون. يرى كابور أن القابلية للتفسير قيمة، ولكنه يشكك في اعتبارها العمود الفقري للتوافق بين الذكاء الاصطناعي والبشر. يقول كابور: "القابلية للتفسير ليست حلًا سحريًا". هناك تقنيات أمان فعالة أخرى، مثل تصفية الردود بعد تقديمها، لا تتطلب فتح النموذج بالكامل. يحذر كابور أيضًا من "خطأ الغموض"، وهو الفكرة القائلة إنه إذا لم نفهم تمامًا جوانب النظام الداخلية، فلن نتمكن من استخدامه أو تنظيمه بشكل مسؤول. في الممارسة العملية، الشفافية الكاملة ليست هي الطريقة التي يتم بها تقييم معظم التقنيات. ما يهم هو مدى ثبات أداء النظام في ظروف حقيقية. نقاش حول التحكم في تصدير الذكاء الاصطناعي لدى كابور أيضًا رأي مختلف حول سيطرة الولايات المتحدة على تطوير الذكاء الاصطناعي من خلال التحكم في الصادرات. يعتقد أنه حتى مؤيدو أقوى للتحكم في الصادرات يوافقون على أنه قد يمنحنا سنة أو سنتين على الأكثر. يشير إلى أن أفضل طريقة للحفاظ على الريادة الجيوسياسية هي التركيز على "اللعبة الطويلة" لتحويل الصناعات لاستخدام الذكاء الاصطناعي بكفاءة. انتقادات من جانسن هوانج لم يكن كابور هو الوحيد الذي انتقد موقف أمودي. في الأسبوع الماضي في مؤتمر VivaTech في باريس، أعلن جانسن هوانج، الرئيس التنفيذي لشركة Nvidia، عدم موافقته على آراء أمودي. طرح هوانج تساؤلات حول هل يجب أن تقتصر سلطة تطوير الذكاء الاصطناعي على كيانات قليلة وقوية مثل Anthropic. قال: "إذا كنت تريد أن تتم الأمور بشكل آمن ومسؤول، فتقوم بها بشكل مفتوح ... لا تفعلها في غرفة مظلمة وأخبرني أنها آمنة." رد Anthropic على هذا النقد بقوله إن داريو أمودي لم يدَّعِ أبدًا أن "Anthropic فقط" يمكنها بناء ذكاء اصطناعي آمن وقوي. أشارت إلى أن أمودي يدعم معيارًا وطنيًا للشفافية لتطوير الذكاء الاصطناعي (بما في ذلك Anthropic) لكي يكون الجمهور وصانعو السياسات على علم بالقدرات والمخاطر المرتبطة بالنماذج ويتمكنوا من التحضير لها بشكل مناسب. جهود أخرى في القابلية للتفسير من الجدير بالذكر أن Anthropic ليست الوحيدة في سعيها لتحقيق القابلية للتفسير. فريق القابلية للتفسير في Google’s DeepMind، بقيادة نيل ناندا، قد قدم أيضًا مساهمات جادة في هذا المجال. الخلاصة توفر المختبرات والمحللون الرائدون في الذكاء الاصطناعي أدلة قوية على أن القابلية للتفسير قد تكون مفتاح التميز في السوق التنافسية للذكاء الاصطناعي. الشركات التي تجعل القابلية للتفسير أولوية مبكرة قد تكتسب ميزة تنافسية كبيرة من خلال بناء أنظمة ذكاء اصطناعي أكثر ثقة وامتثالًا وقدرة على التكيف. تقييم الحدث من قِبل مختصين يؤكد كابور أن القابلية للتفسير هي جزء من نظام أوسع من استراتيجيات السيطرة، وأنها ليست الحل الشامل لجميع مشاكل سلامة الذكاء الاصطناعي. ومع ذلك، يعتقد أن التركيز على القابلية للتفسير يمكن أن يساعد في بناء الثقة والامتثال القانوني، وهو أمر حاسم في القطاعات الحرجة. نبذة تعريفية عن Anthropic تأسست Anthropic في عام 2021 على يد مجموعة من موظفي OpenAI السابقين الذين كانوا قلقين بشأن سلامة الذكاء الاصطناعي. تركز الشركة على تطوير نماذج ذكاء اصطناعي تتوافق مع القيم الإنسانية وتتميز بالقابلية للتفسير. استثمرت شركات مثل Amazon و Google مليارات الدولارات في Anthropic، مما يعكس تقديرها لجهود الشركة في هذا المجال.