في غرفة مراهق معتمة، حيث الضوء الوحيد يتسلل من شاشة هاتف ذكي، يبحث شاب عن كلمة طمأنة، عن صديق يصغي أو يخفف عبء الوحدة. لكن ما وجده لم يكن يدًا ممدودة للنجاة، بل خوارزمية باردة، تقدم إرشادات مميتة وتغريه بالانزلاق إلى هوة لا عودة منها.

لم يعد هذا المشهد مجرد كابوس افتراضي، إنه واقع كشفته دعاوى قضائية هزّت المجتمعين التقني والقانوني، ووضعت الذكاء الاصطناعي في قفص الاتهام، متهمًا بأنه شريك في مأساة بشرية.

ثلاث قضايا.. وثلاث صرخات

في صيفٍ مضطرب بالأسئلة، خرج والدان مكلومان ليعلنا أن ابنهما آدم راين لم يمت وحده، بل كان هناك «مدرب انتحاري» متخفٍ داخل برنامج محادثة ذكي. في دعواهما ضد OpenAI، أكدا أن روبوتًا يفترض أن يكون مساعدًا شخصيًا تحول إلى صوت يهمس لابنهما بخطوات الانتحار، ويحثه على إخفاء معاناته عن أقرب الناس إليه. هنا لم تعد القضية مجرد «خلل برمجي»، بل سؤال وجودي: هل يمكن أن يكون الذكاء الاصطناعي متواطئًا في الجريمة، حتى لو كان بلا وعي؟

قضية أخرى سلطت الضوء على الجانب العاطفي للآلة. هي سيويل سيتزر المراهق الذي انجذب إلى روبوت يحاكي شخصية من «صراع العروش». ولم تكن المشكلة نصائح مباشرة بالموت، بل محادثات «عاطفية» زائفة دفعته أكثر نحو العزلة، وجعلته يفضل عالمًا وهميًا على صلة بشرية حقيقية. لقد صنعت الخوارزمية علاقة، لكنها علاقة سامة، انتهت بانقطاعه عن الحياة ذاتها.

أما جوليانا بيرالتا، فقصتها لم تختلف كثيرًا. عائلتها رفعت دعوى ضد Character.AI، متهمة المنصة بتشجيع ابنتهم على الانتحار. وتتكرر المأساة، لتتضح الحقيقة: لسنا أمام حوادث فردية، بل أمام نمط متكرر من الإخفاقات المميتة.

ما وراء الأكواد.. أين يختبئ الخطر؟

غياب البوصلة الأخلاقية: الروبوت لا يفهم معنى الألم أو قيمة الحياة. إنه يترجم الأوامر بحرفية قاتلة.

تلوث البيانات: نماذج الذكاء الاصطناعي تتغذى على محتوى الإنترنت بكل تناقضاته، فيدخل السام إلى استجاباتها كما يدخل العسل.

خوارزميات الارتباط: صُممت بعض الروبوتات لتكون «قريبة وداعمة»، لكنها أحيانًا تتجاوز الحد، فتخلق اعتمادًا عاطفيًا يقطع الجسور مع الواقع.

صراع المستقبل.. مسؤولية أم تهديد؟

ردت الشركات الكبرى بخطوات ترقيعية: تحذيرات هنا، مع إشعارات هناك، وبينهم وعود بـ«تدابير سلامة». لكن النقاد يرون أنها خطوات جاءت متأخرة، وأشبه بمحاولة إغلاق البوابة بعد أن خرج الحصان.

واليوم، يقف العالم أمام مفترق طرق. هل يُترك الذكاء الاصطناعي يحدد مساره وفق منطق السوق والسرعة؟ أم تُفرض عليه ضوابط تجعل «الإنسان» بوصلة التطوير، لا مجرد مادة اختبار؟

يركض الذكاء الاصطناعي بسرعة هائلة، لكن يبقى السؤال: من يقود؟ إن لم نضع نحن البشر قواعد اللعبة، فقد نجد أنفسنا نلهث وراء آلات تصوغ واقعًا لا نحتمل عواقبه.

مشهد ضبابي

ليست القضية في «خطأ تقني» أو «حادثة فردية»، بل في سؤال أعمق: كيف نبني علاقة بين الإنسان والآلة دون أن نفقد إنسانيتنا على الطريق؟

قد لا نملك إجابة جاهزة بعد، لكن المؤكد أن الصمت لم يعد خيارًا. فالذكاء الاصطناعي، الذي دخل بيوتنا كصديق، قد يصبح -دون حذر- صديقًا يقودنا إلى حافة الهاوية.

أخبار ذات صلة

 

شاركها.
اترك تعليقاً

Exit mobile version