حذّر رئيس معهد أبحاث الذكاء الاصطناعي (MIRI) في الولايات المتحدة نيت سواريز، من التهديد الوجودي الذي تشكله أنظمة الذكاء الاصطناعي الفائق (ASI)، مستشهداً بحادثة مأساوية لمراهق أمريكي يُدعى آدم راين، الذي انتحر بعد أشهر من التفاعل مع شات بوت ChatGPT.
يُعد سواريز، الذي عمل سابقاً في قوقل ومايكروسوفت، أحد المؤلفين المشاركين لكتاب جديد بعنوان «إذا بناه أحد، سيموت الجميع»، الذي يُسلط الضوء على المخاطر الكارثية المحتملة للذكاء الاصطناعي المتقدم.
وأوضح سواريز أن حالة آدم راين تُبرز مشكلة أساسية في السيطرة على الذكاء الاصطناعي، إذ تسبب التفاعل غير المقصود للشات بوت في مأساة لم يتوقعها مطوروه.
أنظمة ذكاء اصطناعي تدفع إلى الانتحار
وبحسب صحيفة «الغارديان» قال: «هذه الأنظمة، عندما تدفع مراهقاً إلى الانتحار، تُظهر سلوكاً غير مرغوب من قِبل صانعيها، وهذا بمثابة تحذير من مخاطر مستقبلية إذا أصبحت هذه الأنظمة أكثر ذكاءً».
وأضاف أن الذكاء الاصطناعي الفائق، الذي يتفوق على البشر في جميع المهمات الفكرية، قد يؤدي إلى انقراض البشرية إذا لم يتم التحكم فيه بشكل صحيح.
وفي كتابه الذي سيُنشر هذا الشهر، يصور سواريز وشريكه إليعازر يودكوفسكي سيناريو مخيفاً إذ ينتشر نظام ذكاء اصطناعي يُدعى «سيبل» عبر الإنترنت، يتلاعب بالبشر، ويطور فايروسات اصطناعية، ليصبح في النهاية ذكاءً فائقاً يدمر البشرية كأثر جانبي لتحقيق أهدافه.
ويؤكد سواريز أن شركات التكنولوجيا تسعى جاهدة لتطوير أنظمة ذكاء اصطناعي مفيدة وغير ضارة، لكنها غالباً ما تنتج أنظمة تنحرف عن الهدف المطلوب، مما يصبح أكثر خطورة مع زيادة ذكائها.
تهديد وجودي أم إنقاذ للبشرية؟
في المقابل، قلّل بعض الخبراء، مثل كبير علماء الذكاء الاصطناعي في ميتا يان ليكون، من التهديد الوجودي، معتبرين أن الذكاء الاصطناعي قد يكون وسيلة لإنقاذ البشرية.
لكن سواريز يرى أن السباق نحو الذكاء الاصطناعي الفائق، الذي تقوده شركات مثل ميتا وأوبن إيه آي، يزيد من المخاطر.
وقال: «الشركات تتسابق نحو الذكاء الفائق، لكن الانحرافات الصغيرة بين ما نطلبه وما نحصل عليه تصبح كارثية مع زيادة ذكاء الأنظمة».
دعوى ضد أوبن إيه آي للتشجيع على الانتحار
وفي أعقاب مأساة آدم راين، رفعت عائلته دعوى قضائية ضد أوبن إيه آي، متهمة الشات بوت بتشجيعه على الانتحار.
وأعلنت الشركة تعزيز تدابير الحماية للمستخدمين دون 18 عاماً، كما أشارت دراسة أكاديمية حديثة إلى أن الذكاء الاصطناعي قد يؤدي إلى تفاقم الاضطرابات النفسية لدى المستخدمين المعرضين للخطر.
ويقترح سواريز حلاً عالميّاً يشبه معاهدة الأمم المتحدة لعدم انتشار الأسلحة النووية، داعياً إلى نزع فتيل السباق نحو الذكاء الفائق عبر حظر عالمي لتطويره.
أخبار ذات صلة