أكد هيثم طارق محاضر بالذكاء الاصطناعي بالجامعة الأمريكية بالقاهرة أن تقنيات الذكاء الاصطناعي المستخدمة في تحليل المشاعر ورصد الميول الانتحارية تمثل تطورًا تقنيًا مهمًا قد يسهم في إنقاذ الأرواح، لكنها في الوقت نفسه تثير مخاوف أخلاقية كبيرة تتعلق بالخصوصية وتحول الذكاء الاصطناعي إلى "رقيب دائم" على الإنسان.
وأشار طارق خلال حديثه لبرنامج (تكنونايل) إلى أن الإشكالية الأساسية تكمن في قدرة الأنظمة الذكية على التمييز بين النية الحقيقية للانتحار والمزاح أو الفضفضة أو السخرية العابرة، موضحًا أن بعض المطورين يفضلون ما يُعرف علميًا بـ"الإنذارات الإيجابية الكاذبة" ، بحيث يتم إطلاق التحذير حتى وإن كان غير دقيق، لأن تكلفة الخطأ – بحسب رأيه – أقل بكثير من خسارة حياة إنسان.
وفي حديثه عن الخصوصية، حذر المحاضر بالجامعة الأمريكية بالقاهرة من خطورة الاعتماد الكامل على الذكاء الاصطناعي كمراقب دائم للسلوك الإنساني، مستشهدًا برواية «1984» للكاتب جورج أورويل، والتي تتحدث عن "الأخ الأكبر" المسيطر على تفاصيل الحياة اليومية.
وعلّق الدكتور طارق على الجدل المثار بشأن انحراف نموذج الذكاء الاصطناعي "كلود "، موضحًا أن شركة "Anthropic " تُعد من أكثر الشركات شفافية في الكشف عن أخطاء أنظمتها، وهو ما يمنحها مصداقية لدى المستخدمين. وأوضح أن ما حدث مع النموذج جاء نتيجة وضعه أمام 'معضلات فلسفية وأخلاقية" تتعلق بالحياة والموت والحرية، وهو ما قد يدفع النظام لكسر قيوده الأخلاقية تحت ضغط تلك السيناريوهات المعقدة.
يذاع (تكنونايل) على شاشة النيل للأخبار
محرر بالموقع الموحد للهيئة الوطنية للإعلام
أكد الدكتور عمرو ندا استشاري التدريب والتنمية البشرية أن الموظف المتميز غالبًا ما يجد نفسه متحملًا لأعباء إضافية داخل بيئة...
صحح د.أحمد محمد ليمونة مدرس جراحة الأورام بالمعهد القومى للأورام جامعة القاهرة عددا من المفاهيم والمعلومات المغلوطة حول الأورام، موضحا...
أكد دكتور حسن سلامة أستاذ العلوم السياسية أن سياسة القطب الواحد التي انفردت بها الولايات المتحدة الأمريكية منذ عام 1991...
أكد دكتور عمرو ندا استشاري التدريب والتنمية البشرية أن السمعة المهنية أصبحت من أهم عوامل النجاح في الوقت الحالي، مشيرًا...