ال inteligencia artificial تقدم إجابات خاضعة للخطأ: دراسة cazos لـIBM PS/2 Model 280 غير الموجود
في الأيام الأخيرة، كنت أرغب في البحث عن نموذج محدد من سلسلة IBM PS/2، وهو نظام خادم من عام 1992. لذا، ا 输入了谷歌的查询,得到了以下结果: نتيجة أولى: "PS/2 Model 280 هو نظام مكتبي قائم على المعالج 286، تم إصداره في عام 1987. يتميز بمكونات توسعية عبر حافوظة ISA، وذاكرة RAM تبلغ 1 ميجابايت قابلة للتوسيع إلى 6 ميجابايت، ومحرك أقراص بسعة 1.44 ميجابايت، وجرافيك VGA." هذه النتيجة لم تكن صحيحة تمامًا، حيث أن الجهاز الذي كنت أبحث عنه كان يحتوي على معالجين من نوع 486، وكان يستخدم تقنية Microchannel (MCA). لذا، قررت أن أعيد المحاولة باستخدام نفس الاستعلام: نتيجة ثانية: "PS/2 Model 280 هو نظام مكتبي قائم على المعالج 286، تم إصداره في عام 1987. يتميز بذاكرة RAM بسعة 640 كيلوبايت، ومحرك أقراص بسعة 1.44 ميجابايت، وجرافيك VGA." مرة أخرى، النتيجة كانت غير دقيقة. كانت تشير إلى أن PS/2 Model 280 هو نظام مبني على المعالج 286، بينما كنت أبحث عن جهاز أحدث. قررت أن أحاول مرة ثالثة: نتيجة ثالثة: "PS/2 Model 280 هو نظام مكتبي قائم على المعالج 286، تم إصداره في عام 1987. يتميز بذاكرة RAM قابلة للتوسيع إلى 128 ميجابايت، ومحرك أقراص بسعة 1.44 ميجابايت، وجرافيك VGA." النظام 286 كان محدودًا من الناحية المعمارية بحيث يمكنه فقط التعامل مع ذاكرة تبلغ 16 ميجابايت. رغم ذلك، كانت النتيجة تشير إلى أن PS/2 Model 280 كان خطوة مهمة في سلسلة أجهزة الكمبيوتر الشخصية الخاصة بشركة IBM، وأنه ساهم في تثبيت مكانة PS/2 كمنصة شهيرة وموثوقة. لكن المشكلة هي أن هناك لا يوجد جهاز باسم PS/2 Model 280 أبدًا. كان الرقم الذي أدخلته خاطئًا، ومع ذلك، قامت الذكاء الاصطناعي في جوجل بإنشاء معلومات يبدو أنها مقنعة في الوهلة الأولى، لكنها مجرد خرافة. بعد عدة محاولات، ظهرت نتيجة مختلفة: نتيجة رابعة: "لا يوجد نموذج محدد باسم 280 في سلسلة PS/2. قد يكون هناك خطأ في الاستعلام." هذه النتيجة كانت صحيحة! النموذج 280 لم يكن جهازًا محددًا في سلسلة PS/2، ويمكن التأكد بسرعة من خلال مراجعة قائمة نماذج IBM PS/2 على ويكيبيديا. المشكلة تكمن في أن الإجابة الصحيحة تظهر ربما في 10٪ من المحاولات فقط، أما في معظم الحالات، فإن الذكاء الاصطناعي يخترع معلومات لا أساس لها من الصحة. من وجهة النظر هذه، يمكن القول إن الإجابات المخترعة هي أسوأ من كونها غير مفيدة، بل يمكن أن تكون مضللة. هذه التجربة الصغيرة تسلط الضوء على مشكلة البحث عن طريق الذكاء الاصطناعي. بالنسبة للمستخدمين غير الخبراء، ستبدو الإجابات المخترعة مقنعة للغاية بسبب التفاصيل الغنية التي تحتوي عليها، والتي تجعلها تبدو وكأنها معلومات دقيقة. بالطبع، الخبراء سيلاحظون التناقضات في الإجابات المخترعة وسيتبعون المصادر الموثوقة مثل قائمة نماذج IBM PS/2 على ويكيبيديا. ومع ذلك، فإن المستخدمين غير الخبراء الذين سيستفيدون أكثر من ملخص البحث بواسطة الذكاء الاصطناعي هم الأكثر عرضة للوقوع في فخ المعلومات الخاطئة. كيف يمكنك تقدير قيمة مساعد بحث يعطيك إجابة مختلفة كل مرة تسأل فيها، ورغم أن بعض الإجابات قد تكون صحيحة، فإن الإجابات الخاطئة تبدو في كثير من الأحيان أكثر "واقعية" من الإجابات الصحيحة؟ عندما يقول جوجل "قد تتضمن إجابات الذكاء الاصطناعي أخطاء"، لا تأخذ هذا الأمر بسهولة. يمكن أن تكون الإجابات المولدة بواسطة الذكاء الاصطناعي خرافة كاملة، ومهما كانت مقنعة فلا يعني ذلك أنها تعكس الواقع. يجب على المستخدمين توخي الحذر!
