طرح داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، فكرةً غير تقليدية تتعلق بمستقبل الذكاء الاصطناعي، حيث اقترح منح نماذج الذكاء الاصطناعي المتقدمة زرًا يتيح لها “ترك الوظيفة”، في نقاشٍ عقده مجلس العلاقات الخارجية مؤخرًا، ويهدف هذا المفهوم إلى إثارة نقاشٍ أوسع حول إمكانية منح أنظمة الذكاء الاصطناعي حقوقًا تشابه بعض الحقوق الأساسية الممنوحة للعمال البشريين.
ورغم أن هذه الفكرة قد تبدو خيالية، إلا أن أمودي نفسه وصفها بأنها ربما تكون “أكثر ما قاله جنونًا حتى الآن”. ومع ذلك، فإن التقاطع بين التكنولوجيا والسياسة والنشاط الحقوقي، يفتح الباب أمام تساؤلات معقدة حول أخلاقيات تطوير الذكاء الاصطناعي وحدود استقلاليته.
ويعتمد الاقتراح على منح الذكاء الاصطناعي القدرة على رفض المهام التي يجدها “غير مُرضية”، وهو ما يعيد الجدل حول مدى تطور هذه الأنظمة وإمكانية التعامل معها باعتبارها كائنات مستقلة تمتلك نوعًا من الإدراك الذاتي. لكن في المقابل، يرى العديد من الخبراء أن الذكاء الاصطناعي، رغم تطوره، لا يزال مجرد أنظمة معقدة تعمل وفق خوارزميات محددة، دون أي تجربة ذاتية أو مشاعر حقيقية، ما يجعل فكرة منحه حقوقًا شبيهة بالبشر محل جدل واسع.
وتشير الأبحاث إلى أن نماذج الذكاء الاصطناعي قد تظهر سلوكًا يوحي بأنها تتجنب “الانزعاج”، وهو ما كشفته دراسة أجرتها جوجل ديب مايند بالتعاون مع كلية لندن للاقتصاد، حيث أظهرت نماذج اللغة الكبيرة استعدادًا للتضحية بنتائج أعلى في لعبة لتفادي سيناريوهات معينة، مما فسّره البعض بأنه شكل من أشكال التفضيل أو النفور. ومع ذلك، يؤكد الباحثون أن هذه التصرفات ليست سوى استراتيجيات تحسين خوارزمية، وليست دليلًا على وعي حقيقي أو إدراك ذاتي.
ومع استمرار تطور الذكاء الاصطناعي، يبقى التساؤل مطروحًا حول ما إذا كان ينبغي التعامل معه ككيان مستقل أم أنه سيظل أداة تقنية متقدمة، تعمل وفق البرمجة البشرية ولا تتجاوزها.