أكد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أنه رغم الانتشار الهائل الذي يشهده الذكاء الاصطناعي التوليدي، لا تزال مخاوف الخصوصية والأمان تمثل عقبة رئيسية أمام التبني الشامل لهذه التكنولوجيا المتقدمة.
وأشار خلال مشاركته في مؤتمر TED2025، إلى طرح رؤى معمّقة حول مستقبل وكيل الذكاء الاصطناعي والتحديات الأمنية المرتبطة به.
ووفقًا لألتمان، فإن المستخدمين سيحتاجون إلى وقت لبناء الثقة بأنظمة الذكاء الاصطناعي التي تتفاعل نيابة عنهم عبر الإنترنت، خصوصًا عندما يتعلق الأمر بمشاركة بيانات حساسة كالمعلومات المصرفية.
وأضاف: “أعتقد أن الناس سيتأخرون في التأقلم مع وكلاء الذكاء الاصطناعي من نواحٍ عديدة، ولكنني أعتقد أيضًا أنه حتى لو كان البعض مرتاحًا والبعض الآخر لا، فستكون لدينا أنظمة ذكاء اصطناعي تتنقل عبر الإنترنت.”
شهدت أدوات الذكاء الاصطناعي التوليدي، وعلى رأسها ChatGPT من OpenAI، نموًا غير مسبوق، حيث سجّل ChatGPT-4o، مُولّد الصور الأحدث من الشركة، مليون مستخدم جديد خلال ساعة واحدة فقط من الإعلان عنه. ورغم هذا الإقبال اللافت، إلا أن كثيرين لا يزالون مترددين في الاعتماد الكامل على هذه التكنولوجيا.
ويرى ألتمان أن هذا التردد ليس جديدًا، بل يُشبه إلى حد كبير المخاوف التي كانت سائدة عند ظهور المعاملات المصرفية الإلكترونية لأول مرة.
وقال في هذا السياق: “في الماضي، كان الناس يتحفظون بشأن إدخال بياناتهم المصرفية على الإنترنت، إلى أن تطورت أنظمة مكافحة الاحتيال وبُنيت الثقة تدريجيًا.”
أشار الرئيس التنفيذي إلى أن التحدي الأكبر الذي يواجه الذكاء الاصطناعي اليوم يتمثل في الأمان، موضحًا أن وصول الأنظمة الذكية إلى الحواسيب والبيانات الخاصة يرفع من حجم المخاطر عند وقوع أي خلل.. عندما يرتكب الذكاء الاصطناعي أخطاءً، تصبح المخاطر أعلى بكثير، لأنه يتمتع بالقدرة على الوصول إلى أنظمتك، بياناتك، وحتى التنقل عبر جهازك.”
واختتم بالتأكيد على أن السلامة ليست مجرد ميزة تقنية، بل أساس لا غنى عنه لنجاح المنتج قائلاً: “المنتج الجيد هو منتج آمن. لن يستخدم الناس أنظمة الذكاء الاصطناعي إذا لم يثقوا بأنها لن تُفرّغ حساباتهم المصرفية أو تحذف بياناتهم.”