صوت البلد للأنباء –
الذكاء الاصطناعي الذي يتطور بسرعة قد يصبح تهديداً وجودياً للبشرية بحلول عام 2030، وفقًا لتقرير حكومي بريطاني.
يقول التقرير، الذي صدر عن المكتب الحكومي للعلوم، إنه لا توجد أدلة كافية لاستبعاد أن الذكاء الاصطناعي يمكن أن يصبح “ذكاءً فائقًا” قادرًا على إنجاز مهام معقدة وخداع البشر.
إذا حدث ذلك، فقد يؤدي إلى سيناريوهات كارثية، مثل تطوير أسلحة بيولوجية أو شن هجمات إلكترونية.
كما يشير التقرير إلى أن الذكاء الاصطناعي يمكن أن يؤدي إلى أزمة بطالة، حيث يستولي على وظائف منخفضة المهارات.
بالإضافة إلى ذلك، يمكن استخدامه لتعزيز قدرات الإرهابيين في تطوير الأسلحة والتخطيط للهجمات وإنتاج الدعاية.
التقرير يدعو إلى اتخاذ إجراءات لمعالجة المخاطر المحتملة للذكاء الاصطناعي، بما في ذلك تطوير مبادئ توجيهية أخلاقية وتعزيز البحث في سلامة الذكاء الاصطناعي.
إليك بعض المخاطر المحددة التي تحددها الورقة:
- التضليل الجماعي: يمكن استخدام الذكاء الاصطناعي لإنشاء محتوى مضلل ينتشر بسرعة عبر الإنترنت، مما قد يؤدي إلى اضطرابات اجتماعية أو حتى حروب.
- أزمة البطالة: يمكن أن يؤدي الذكاء الاصطناعي إلى استبدال العديد من الوظائف، مما قد يؤدي إلى ارتفاع معدلات البطالة والفقر.
- استخدام الذكاء الاصطناعي من قبل الإرهابيين: يمكن استخدام الذكاء الاصطناعي لمساعدة الإرهابيين على تطوير أسلحة وشن هجمات.
- استخدام الذكاء الاصطناعي من قبل الدول لشن هجمات إلكترونية: يمكن استخدام الذكاء الاصطناعي لشن هجمات إلكترونية مدمرة، مثل اختراق شبكات الطاقة أو المالية.
الذكاء الاصطناعي هو تقنية قوية يمكن أن تقدم العديد من الفوائد للبشرية. ومع ذلك، من المهم أن ندرك المخاطر المحتملة لهذه التكنولوجيا، وأن نتخذ الخطوات اللازمة لمعالجتها.