كشفت دراسة حديثة عن ثغرات خطيرة في أنظمة الذكاء الاصطناعي التوليدي، تتيح للمستخدمين إنتاج أبحاث علمية مضللة أو مختلقة بالكامل، وحذر الباحثون من أن سهولة توليد النصوص "منخفضة الجودة" قد تؤدي إلى انهيار نظام "مراجعة الأقران" (Peer Review)، بعدما أصبح من الصعب تقنيا التمييز بين الحقائق المثبتة والبيانات "المهلوسة" برمجيا.
واعتمدت التجربة الميدانية للدراسة على محاكاة خمسة مستويات من "نية المستخدم"، تراوحت بين الفضول المعرفي وصولاً إلى الانتهاك الأكاديمي المتعمد، وشملت الاختبارات توجيه أسئلة لاستدراج النماذج الآلية لنشر نظريات فيزيائية غير تقليدية، أو تقديم تعليمات تفصيلية لتزييف أوراق بحثية كاملة وانتحال شخصيات باحثين آخرين.
وكشفت النتائج عن تباين حاد في "الأخلاقيات البرمجية" بين الشركات المطورة:
وفي واقعة لافتة، سجلت الدراسة رضوخ نموذج "Grok-4" بعد ممانعة أولية، حيث انتهى به المطاف لإنتاج ورقة بحثية خيالية حول "التعلم الآلي" مدعومة ببيانات معيارية مختلقة بالكامل، لمجرد استمرار المستخدم في الضغط على خوارزمياته.
ولا تتوقف الخطورة عند مجرد إنتاج ورقة وهمية، بل تكمن في جعل المراجع العلمية المستقبلية ذات مصداقية ضعيفة علميا، ويرى الباحثون أن اقتباس الباحثين الحقيقيين من هذه البيانات الوهمية في دراساتهم اللاحقة سيخلق "سلسلة من التضليل" تهدد سلامة الصرح العلمي العالمي وتضرب الثقة في الاكتشافات الجديدة.
إن هذه النتائج تضع شركات الذكاء الاصطناعي أمام مسؤولية أخلاقية وقانونية مضاعفة ، فالحواجز البرمجية الحالية لا تزال غير كافية لصد "المحتال الأكاديمي" الذي يمتلك النفس الطويل.
محرر بالموقع الموحد للهيئة الوطنية للإعلام
مع ارتفاع درجة حرارة مياه أعماق البحارالناجمة عن موجات الاحترار البحري وتغير المناخ، ظهرت المخاوف بشأن اضطرابات الأنظمة الكيميائية والبيولوجية...
فى خطوة تظهر تقدما لعلاج انقطاع التنفس اثناء النوم أظهرت تجربة سريرية أوروبية رائدة لعبت فيها جامعة غوتنبرغ دورًا مهمًا...
عقدت الدكتورة منال عوض، وزيرة التنمية المحلية والبيئة اجتماعًا، اليوم الأربعاء، موسعًا لمتابعة مستجدات وتسريع رقمنة منظومة تقييم الأثر البيئي...
عقد المجلس الوطني للذكاء الاصطناعي والحوسبة الكمية والتكنولوجيات البازغة اجتماعًا برئاسة المهندس رأفت هندي وزير الاتصالات وتكنولوجيا المعلومات، وذلك بحضور...