في خضم التطور التكنولوجي السريع الذي يشهده عالمنا، يبرز الذكاء الاصطناعي كأحد أبرز محركات هذا التغيير، محملًا بوعود بتحسين حياتنا في شتى المجالات. لكن، وبعيدًا عن الإبهار التقني، تتصاعد الأصوات المنبهة إلى المخاطر البيئية والاجتماعية الكامنة وراء هذا التسارع. دعوة أطلقها مرسم الإيكولوجيا السياسية في تولوز، فرنسا، تثير جدلاً هامًا حول مستقبل التكنولوجيا وعلاقتها بالإنسانية.
دعوة للاعتراض الضميري على الذكاء الاصطناعي: نظرة من منظور إيكولوجي وسياسي
أطلق مرسم الإيكولوجيا السياسية (أتيكوبول) في تولوز، فرنسا، نداءً ملحًا إلى الأساتذة والباحثين، يدعوهم إلى رفض استخدام الذكاء الاصطناعي قبل إجراء نقاش معمق حول الآثار المترتبة على توسعه المتسارع. لم يكن هذا النداء مجرد موقف فردي، بل هو تعبير عن قلق متزايد بشأن التداعيات البيئية والاجتماعية لهذه التقنية الثورية. يعتبر “أتيكوبول” تجمعًا لباحثين متخصصين في التحولات البيئية، ويهدف هذا النداء إلى إثارة حوار عام حول مسئولية استخدامنا للتكنولوجيا وتأثيرها على كوكبنا ومجتمعاتنا.
الهدف الأساسي من وراء هذا الموقف ليس عرقلة التقدم التكنولوجي، بل التأكيد على ضرورة التفكير النقدي والمسؤولية الأخلاقية. كما يؤكد جان ميشال هوبيه، الباحث في الإيكولوجيا السياسية، على أن الأمر يتعلق بـ”مسألة الكرامة الشخصية”، وأن الاعتراض الضميري ليس بالأمر الذي يمنع تطور الأمور، ولكنه يعبر عن رفض المشاركة في مسار قد يكون ضارًا.
الآثار البيئية والاجتماعية المقلقة للذكاء الاصطناعي
يثير تطور الذكاء الاصطناعي مخاوف جدية على عدة أصعدة. أولاً، الاستهلاك الهائل للطاقة والموارد الذي يعتمد عليه هذا التطور. تتطلب معالجة البيانات الهائلة وتدريب النماذج المعقدة كميات ضخمة من الطاقة، مما يزيد من البصمة الكربونية ويسهم في تفاقم أزمة المناخ.
ثانيًا، تعميق العلاقات غير المتكافئة بين دول الشمال والجنوب. غالبًا ما تعتمد عمليات استخراج الموارد اللازمة لإنتاج مكونات الذكاء الاصطناعي على ممارسات استغلالية في الدول النامية، مما يفاقم التفاوتات الاقتصادية والاجتماعية. بالإضافة إلى ذلك، هناك خطر من استغلال العمالة الهشة في عمليات تصنيع وصيانة هذه التقنيات.
تضليل المعلومات وسيطرة الشركات الكبرى
لا تقتصر المخاوف على الجانب البيئي والاجتماعي فقط، بل تمتد لتشمل الجوانب الثقافية والمعرفية. يحذر الباحثون من أن الذكاء الاصطناعي التوليدي، على وجه الخصوص، يساهم في تسريع انتشار المعلومات المضللة، مما يقوض الثقة في المؤسسات الإعلامية ويعرض المجتمعات للخطر.
علاوة على ذلك، يثير هذا التطور تساؤلات حول التبعية المتزايدة للتكنولوجيا وسيطرة الشركات الرقمية العملاقة على حياتنا. فالاعتماد المفرط على هذه الأدوات قد يؤدي إلى فقدان المهارات الأساسية وتقليل القدرة على التفكير النقدي المستقل.
تأثير الذكاء الاصطناعي على الأوساط الأكاديمية
وصل تأثير الذكاء الاصطناعي إلى صميم المؤسسات الأكاديمية، حيث أصبح العديد من الباحثين والطلاب يعتمدون عليه في كتابة وتقييم البحوث. هذا التحول يثير تساؤلات عميقة حول مستقبل الإنتاج العلمي وقيمته. هل يمكن اعتبار البحث الذي تم إنشاؤه بمساعدة الذكاء الاصطناعي “أصليًا”؟ وهل يمكننا الوثوق في جودة هذا البحث؟
في الجامعات، أصبح استخدام هذه الأدوات أمرًا واقعًا، مما يفرض على الأساتذة إعادة النظر في ممارساتهم التعليمية. ولكن، غالبًا ما يتم ذلك دون وجود نقاش كاف أو استراتيجية واضحة، مما يزيد من الحاجة إلى تحرك سريع ومدروس.
جدل حول الحل: بين المقاطعة والتنظيم
الدعوة إلى “الاعتراض الضميري” أثارت ردود فعل متباينة. بينما يرى البعض أن مقاطعة الذكاء الاصطناعي هي الخطوة الأولى نحو تصحيح المسار، يرى آخرون أن الحل يكمن في تنظيم استخدام هذه التقنية ووضع قواعد أخلاقية واضحة تحكم تطويرها وتطبيقها.
هناك مبادرات مماثلة، مثل البيان الذي نشرته منظمة “كوادراتور دو نِت” بداية عام 2025، والذي يدعو إلى “مقاومة الانتشار الكثيف والمعمم للذكاء الاصطناعي” باعتباره مخالفًا للحقوق الإنسانية والاجتماعية والبيئية.
التكنولوجيا الناشئة لا يمثل بالضرورة خطرًا، بل هو أداة يمكن استخدامها بطرق مختلفة. بدلًا من الانسحاب من الميدان، قد يكون من الأفضل العمل على بناء بدائل نقدية من الداخل، وتعزيز الشفافية والمساءلة في تطوير واستخدام هذه التقنيات.
في الختام، يطرح الذكاء الاصطناعي اليوم سؤالاً حضاريًا كبيرًا يتجاوز حدود التكنولوجيا ليشمل نماذج التنمية والمعرفة والعلاقة بين الإنسان والآلة. هذا السؤال يستدعي تفكيرًا عميقًا وجهودًا مشتركة من جميع الأطراف المعنية، بهدف ضمان أن يكون هذا التطور في خدمة الإنسانية والكوكب، وليس على حسابهما. ندعوكم للمشاركة في هذا الحوار الهام وتبادل الآراء حول مستقبل الذكاء الاصطناعي وتأثيره على مجتمعاتنا.















