انتشر نوع من الاحتيال بواسطة تطبيقات الذكاء الاصطناعي يسمّى "احتيال التزييف" أو "التلاعب الصوتي"، لكن يمكنك النجاة منه لو انتبهت لهذه المستجدات .
كانت شركة "أوبن إيه آي"، المتخصصة في الذكاء الاصطناعي التوليدي، ومبتكرة برنامج المحادثة الشهير "تشات جي بي تي"، عرضت، مارس الماضي، أداة لاستنساخ الصوت سيكون استخدامها محدودا لتفادي عمليات الاحتيال.
والأداة التي سميت بـ"فويس إنجين" أو "محرك الصوت" قادرة على إعادة إنتاج صوت شخص من خلال عينة صوتية مدتها 15 ثانية، حسب ما ذكر بيان لـ"أوبن إيه آي" تطرق إلى نتائج اختبار أجري على نطاق صغير.
وأضاف البيان: "ندرك أن القدرة على توليد أصوات تشبه أصوات البشر خطوة تنطوي على مخاطر كبيرة، خصوصا في عام الانتخابات هذا"، وأنه لذلك: "نعمل مع شركاء أمريكيين ودوليين من حكومات ووسائل إعلام ومجالات الترفيه والتعليم والمجتمع المدني وقطاعات أخرى، ونأخذ ملاحظاتهم في الاعتبار".
محرر بالموقع الموحد للهيئة الوطنية للإعلام
حقق فريق من طلاب جامعة النيل إنجازا جديدا يضاف إلى سجل الجامعة في دعم الابتكار والبحث العلمي، بعدما حصل فريق...
نجح باحثون في مجال الأمن السيبراني في اختراق نظام التشغيل macOS التابع لشركة "أبل" بمساعدة نموذج الذكاء الاصطناعي لشركة "أنثروبيك"...
ابتكر باحثون يابانيون تقنية جديدة لإنتاج "الوقود الاصطناعي" تعتمد كلياً على الماء والهواء، في خطوة تمثل تحولاً جذرياً في مستقبل...
طوّر فريق بحثي في الولايات المتحدة تقنية مبتكرة تعتمد على الموجات الصوتية منخفضة التردد لإخماد الحرائق دون استخدام الماء أو...