يلفت الباحث والمحلل تريستان باسي الانتباه لخطورة الذكاء الاصطناعي في زيادة المعلومات المضللة وإغراق العالم بالأكاذيب والحروب.
يمكن للذكاء الاصطناعي فتح الباب لعصر جديد من المعلومات المضللة وتشكيل الخطاب العام بسهولة أكبر، وربما إثارة القلق. وتكمن خطورة الذكاء الاصطناعي في إمكانية توفير محتوى واقعي للغاية بما في ذلك النصوص والصور والصوت والفيديو. وخير مثال على تطبيق هذه التقنيات هو روبوت ChatGPT للمحادثة طورته شركة OpenAl وازدادت شعبيته منذ إطلاقه في عام 2022. ويؤدي انتشار هذا النوع من المعلومات المضللة إلى تآكل ثقة الجمهور وتقويض النسيج الاجتماعي الذي يربط المجتمعات.
ويتحمل صانعو السياسة في الولايات المتحدة مسؤولية التصدي لهذا الخطر ولتبعات “التزييف العميق” للحقائق. فمن خلال الذكاء الاصطناعي أضحى بالإمكان إنشاء سيناريوهات لأشخاص حقيقيين يفعلون أو يقولون أشياء لم تحدث. وأصبحت التقنية متاحة ودون حواجز لأي شخص يريد نشر معلومات مضللة. ولا يقتصر ضرر المعلومات المضللة على الواقع المحلي أو على السياسيين، كأن يتم تزييف أصوات المرشحين للانتخابات الرئاسية مثلا؛ بل يمكن أن يطال أمن المجتمع الدولي من خلال نشر أكاذيب حول استهداف مواقع معينة أو تفجيرات هنا وهناك، وهذا من شأنه إثارة أزمات جيوسياسية حقيقية.
ويكمن الصراع برأي الكاتب بين التوجه للقيام بما يلزم للفوز بسباق التسلح بالذكاء الاصطناعي ضد المنافسين وبين تنظيم الذكاء الاصطناعي. ومع ذلك لا بد من اتخاذ خطوات نحو تطوير استراتيجية وطنية ودولية للذكاء الاصطناعي لاتباع معايير متفق عليها في المجتمع الدولي.
المصدر: National Interest
مجلة 24 ساعة