هجرة جماعية للفنانين من إنستجرام لصالح تطبيق Cara

سياسات ميتا ثير مخاوف الفنانين

هجرة جماعية للفنانين من إنستجرام لصالح تطبيق Cara
نيفين نبيل

نيفين نبيل

1:35 م, الأحد, 9 يونيو 24

أثار التطور السريع للذكاء الاصطناعي (AI)  حالة من القلق في عدة أوساط، وفي حين أن إمكانياته لا يمكن إنكارها، فإن المخاوف المتعلقة بخصوصية البيانات وملكيتها تأتي في صدارة هذه المخاوف، وينطبق هذا بشكل خاص على الفنانين، الذين يتم استخدام أعمالهم الإبداعية بشكل متزايد لتدريب نماذج الذكاء الاصطناعي، مما يثير تساؤلات حول الملكية الفكرية والسيطرة الفنية.

عدد كبير من الفنانين بدأوا في هجرة تطبيق انستجرام لتبادل الصور والفيديو لتطبيق آخر ليس بنفس الدرجة من الشهرة ولكنه بعيد عن استخدامات الذكاء الاصطناعي، وهو Cara، التي تعطي الأولوية لخصوصية المستخدم وملكية المحتوى.

أدى استخدام الشركة الأم المالكة لـ “انستجرام” استخدامهم للمحتوى الذي أنشأه المستخدمون في عملية تدريب نماذج الذكاء الاصطناعي إلى رد فعل عنيف من الفنانين، و هجرة جماعية إلى منصة كارا التي أصبحت في غضون اشهر قليلة الملاذ الآمن لكثير من الفنانين

كارا هو تطبيق للتواصل الاجتماعي مصمم خصيصًا للمبدعين، يوفر مساحة آمنة لمشاركة أعمالهم والتواصل مع المبدعين الآخرين وعرض مواهبهم. على عكس منصات مثل Instagram، تعطي “كارا” الأولوية لخصوصية المستخدم وملكية المحتوى، تحظر المنصة بشكل صريح تدريب نماذج الذكاء الاصطناعي على المحتوى الذي ينشئه المستخدمون، وقد لقي هذا الموقف صدى لدى الفنانين الذين يشعرون بالقلق من استخدام أعمالهم دون موافقة.

شهدت قاعدة مستخدمي كارا ارتفاعًا سريعًا في الأسابيع الأخيرة، حيث ارتفعت من 100000 إلى 300000 في غضون أيام قليلة ووصلت إلى قمة مخططات متجر التطبيقات. يعكس هذا النمو الهائل الاستياء المتزايد بين الفنانين من كيفية استخدام شركات التكنولوجيا الكبرى لأعمالهم.

بالإضافة إلى مجرد حظر التدريب على الذكاء الاصطناعي، تقوم Cara بحماية محتوى المستخدم بشكل استباقي، إذ تستخدم المنصة أداة تسمى Cara Glaze، والتي طورها مختبر SAND Lab التابع لجامعة شيكاغو. يستخدم Glaze التعلم الآلي لتغيير الأعمال الفنية التي تم تحميلها بمهارة بطرق غير محسوسة للعين البشرية، تجعل هذه التعديلات من الصعب على نماذج الذكاء الاصطناعي محاكاة الأسلوب الفني بدقة، مما يزيد من حماية أصالة أعمال الفنانين.

بالإضافة إلى ذلك، تخطط كارا لتقديم أداة حماية أخرى تسمى Nightshade. تقوم هذه الأداة بتضمين علامات مائية غير مرئية داخل الأعمال الفنية، مما يزيد من تشويش المحتوى وإعاقة قدرة الذكاء الاصطناعي على فهمه وتكراره.

يثير استخدام “ميتا” لمحتوى مستخدميها في تدريب أنظمة الذكاء الاصطناعي أسئلة مهمة حول خصوصية البيانات والملكية الفكرية. يرى الكثيرون أنه من غير الأخلاقي استخدام المحتوى الذي ينشئه المستخدمون دون موافقة صريحة، خاصة عندما يمكن استخدام هذا المحتوى لإنشاء أعمال مشتقة أو التنافس مع الفنانين الأصليين. تسلط هذه المشكلة الضوء على الحاجة إلى لوائح وأطر إدارة بيانات أكثر وضوحًا حول كيفية تدريب نماذج الذكاء الاصطناعي واستخدام مصادر البيانات.