أساتذة ستانفورد يُصوّتون على استخدام أدوات الذكاء الاصطناعي في الأبحاث بحذر ووعي أخلاقي
مع انتشار أدوات الذكاء الاصطناعي في الأبحاث الأكاديمية بجامعة ستانفورد، تُطرح تساؤلات حادة حول كيفية دمجها دون المساس بالدقة الأكاديمية، والأخلاقيات، أو التفكير البشري. تُعدّ كاثرين أوليفاريوس، أستاذة التاريخ، من المبادرين بحذف مُتَّسِق، إذ تُركّز بحوثها على المواد المحفوظة في المكتبات والمتاحف الورقية، التي لا تزال غير مُرَقَّمة رقميًا. وتحذّر من أن أدوات مثل "تشات جي بي تي" لا تمثل بديلاً عن الملفات الأصلية، مشيرة إلى أن كثيرًا من الطلاب يُخطئون في افتراض أن المصادر التاريخية متوفرة بالكامل عبر الإنترنت. ورغم استخدامها للذكاء الاصطناعي كمُعدّل نصي فعّال، ترفض توظيفه في صياغة مسودات بحثية، مُشيرة إلى أن "التفكير الأكاديمي الحقيقي ينشأ من الجهد المُتَوَلِّد في عملية الكتابة". وتُعبّر عن مخاوف أخلاقية حيال استخدام الذكاء الاصطناعي، مُصِفَةً الوضع الحالي بـ"الوادي البرّي"، حيث لا توجد معايير مُتفق عليها. وتحذر من أن استخدام أفكار غير مُنتمية إليك، وإن كانت مُولَّدة من الذكاء الاصطناعي، قد يُعدّ انتهاكًا للأخلاقيات، وربما يُعدّ انتهاكًا للسرد الأكاديمي. في الفصل الدراسي، واجهت أوليفاريوس تجربة مُخيبة: حين طلبت من الذكاء الاصطناعي كتابة مقال في مجالها، أخطأت في تفسيرات جوهرية، وفَهِمَتْ أن "الخسارة تكمن في أن غير المتخصصين لا يستطيعون اكتشاف هذه الأخطاء". وتحث على تدريب الطلاب على التمييز بين المحتوى الموثوق والمضلّل. من ناحية أخرى، يُسهم جو يون هام، مديرة التدريب في مركز البحوث الرقمية المتعددة التخصصات، في توجيه الباحثين نحو استخدام مُناسب وذو مسؤولية. تُظهر تغيّرًا في طلبات الاستشارة: من الوعي العام بالذكاء الاصطناعي إلى تقييم أدوات محددة وتطبيقات تقنية مُتَوَقَّعة. وتنوّه إلى اهتمام متزايد باستراتيجيات استخدام واجهات برمجة التطبيقات (API) بذكاء لخفض التكاليف وتحسين الأداء. وترى أن هذا التحوّل يعكس نضجًا في التعامل مع التكنولوجيا، من "التجريب العشوائي" إلى "الاندماج المُتَمَيِّز، المُنَظَّم أخلاقيًا، والمستند إلى تفكير ناقد". تُركّز هام على أن الباحثين يطلبون فهمًا أعمق لآليات عمل الذكاء الاصطناعي، مثل بنية "المحوّل" (transformer) التي تُمكّن الأنظمة من فهم اللغة، إضافة إلى الوعي بمخاطر "الهلوسة" (hallucinations) في نتائج نماذج لغة كبيرة، خصوصًا في البحوث النوعية التي تُستخدم فيها لاستخلاص البيانات أو ترميزها. من جهته، يُقدّم جيف كايرس، أستاذ العلوم الأرضية والكواكب، نموذجًا مختلفًا: ففي مجاله، يُعدّ الذكاء الاصطناعي أداة مُدمجة بالفعل. تُركّز بحوثه على اتخاذ قرارات في ظل عدم اليقين، خصوصًا في استكشاف المعادن وطاقة الجيولوجية. ويُبيّن أن الذكاء الاصطناعي يُمكّن الباحثين من تحليل كميات هائلة من البيانات لا يمكن استيعابها يدويًا، ما يُحسّن دقة التقديرات. ويُضيف أن القيمة الحقيقية لا تكمن في السرعة فحسب، بل في تضمين عوامل بيئية واجتماعية مبكرًا، ما يُقلّل من التكاليف ويعزز الاستدامة على المدى الطويل. ورغم الاهتمام بذكاء اصطناعي توليدي، يُصرّ كايرس على أن "الذكاء الاصطناعي لا يُدرك تعقيد الأنظمة"، مُحذّرًا من تضخيم دوره. في النهاية، يُتفق أعضاء هيئة التدريس في ستانفورد على أن التحدي ليس في استخدام الذكاء الاصطناعي، بل في ضمان أن يُعزز، لا يُضعف، مبادئ البحث الأكاديمي: الدقة، المساءلة، والتعاون.
