الذكاء الاصطناعي يحسم تفاعل العملاء مع منتجات القطاع بشرط تلبيتها للتوقعات (تحقيق مدعم بالبيانات)

وبدون هذه المكونات يكون مستخدموه عرضة للانسحاب

الذكاء الاصطناعي يحسم تفاعل العملاء مع منتجات القطاع بشرط تلبيتها للتوقعات (تحقيق مدعم بالبيانات)
إبراهيم الهادي عيسى

إبراهيم الهادي عيسى

7:34 م, السبت, 19 أكتوبر 24

في ظل الانتشار الأخير للتطبيقات المدعومة بالذكاء الاصطناعي التوليدي، تعمل المنظمات على تكثيف جهودها لتبني تكنولوجيا الذكاء الاصطناعي لجني الفوائد المتوقعة منها.

وفي قطاع التأمين على الحياة والصحة، يصاحب تبني الذكاء الاصطناعي التقليدي، والذكاء الاصطناعي التوليدي بشكل متزايد، اعتبارات أساسية تتعلق، على سبيل المثال، بقدرة نموذج الذكاء الاصطناعي على تجنب التمييز غير العادل وضمان الدقة.

ومن الأهمية بمكان أيضا التفكير في كيفية دمج الذكاء الاصطناعي في سير عمل الموظفين وكيفية تصميم العلاقة بين الإنسان والحاسوب بشكل مدروس.

بينما يقدم الذكاء الاصطناعي المسئول إرشادات قيمة لبناء الثقة ومساعدة شركات التأمين على إدراك الفوائد المحتملة للذكاء الاصطناعي بشكل كامل.

“المال” تبحث مع الخبراء: الذكاء الاصطناعي المسئول.. ما هو وأهميته لشركات التأمين على الحياة والصحة؟

وائل ثروت، الخبير التكنولوجي، بيّن أن الذكاء الاصطناعي اكتسب زخما كبيرا في السنوات الأخيرة، وعلى الرغم من عدم وجود تعريف عالمي في الوقت الحاضر، فإنه يُفهم عموما على أنه مجموعة من المبادئ والعمليات لتوجيه تطوير واستخدام أنظمة الذكاء الاصطناعي.

وأضاف ثروت أن المؤسسات تكيّف مبادئ الذكاء الاصطناعي وفقا لاحتياجات أعمالها وبما يتوافق مع اللوائح المحلية ذات الصلة، ولكن غالبا ما تظهر موضوعات مشتركة، تتركز بشكل أساسي حول الشفافية والإنصاف والمساءلة والخصوصية، بينما يهدف إلى ضمان ملاءمة تطبيقات الذكاء الاصطناعي للغرض ومواءمتها مع الأهداف التجارية المحددة مسبقا.

وأوضح أن إرشادات الذكاء الاصطناعي المسئول تدور حول 5 مبادئ أساسية، أهمها التأكد من أن نماذج الذكاء الاصطناعي لا تمارس التمييز بشكل غير عادل، فعلى سبيل المثال، يجب أن يتمكن المستهلكون من الوصول إلى التأمين بغض النظر عن عرقِهم.

وتابع أن الشفافية والقدرة على التوضيح من أهم المبادئ، لضمان الوضوح بشأن استخدام وقيود أنظمة الذكاء الاصطناعي والقدرة على تقديم تفسيرات مفهومة للقرارات التي تتخذها هذه الأنظمة.

وأردف أن المتانة والأمان والسلامة تعد من ضمانات أنظمة الذكاء الاصطناعي الدقيقة والموثوقة، التي تقدم نتائج قوية ومحمية من تبني الذكاء الاصطناعي التقليدي، والذكاء الاصطناعي التوليدي بشكل متزايد (المتوافق مع معايير وأنظمة السلامة)، وإساءة الاستخدام والتهديدات، فعلى سبيل المثال، يجب أن يكون لنموذج الذكاء الاصطناعي ضوابط في مكانها لمنعه من توليد مخرجات عندما يتم اختراق النظام.

وأكمل أن تحديد المسئوليات الواضحة لنتائج الذكاء الاصطناعي والأضرار المحتملة من أهم الضوابط، مثل اتخاذ القرارات المتحيزة، من خلال تعيين مالك نموذج الأعمال الذي يتحمل المسئولية الكاملة عن النموذج ومالك تكنولوجيا الأعمال لنشره الفني.

وأكد على ضرورة الخصوصية ووضع السياسات والإجراءات والضوابط الصحيحة للتعامل مع البيانات داخل أنظمة الذكاء الاصطناعي والتأكد من حماية أي معلومات شخصية من اعتماد الذكاء الاصطناعي التقليدي، والوصول إلى الذكاء الاصطناعي التوليدي واستخدامه بشكل متزايد، ويشمل ذلك تدابير مثل إخفاء هوية البيانات.

وذكر أن بناء الثقة في نماذج الذكاء الاصطناعي يتطلب دمج جميع مبادئ الذكاء الاصطناعي المذكورة، بالإضافة إلى ذلك، فإن شركات التأمين التي تدمج إطار عمل الذكاء الاصطناعي في وقت مبكر من دورة حياة تطوير نموذج الذكاء الاصطناعي تكون في وضع أفضل لكسب الثقة والتخفيف من المخاطر السلبية، مثل التحيز والتمييز، منذ البداية.

هل أصبح الذكاء الاصطناعي أكثر أهمية؟

وبيّنت غادة الحريري، مدير وكالات البيع المباشر بشركة ثروة لتأمينات الحياة، أن الذكاء الاصطناعي ليس جديدا على التأمين على الحياة والصحة، ونظرا للمخاطر الكامنة في الذكاء الاصطناعي، فقد كان من المهم دائما استخدامه بشكل مسئول في القطاع، ومع ذلك، مع انتشار التقنيات الأحدث مثل الذكاء الاصطناعي التوليدي واستمرار تطور المخاطر، يتعين تكييف تطبيق الذكاء الاصطناعي التوليدي للتخفيف من هذه المخاطر الناشئة.

وأوضحت “الحريري” أن المخاطر الرئيسة التي تحيق بالمعاملات التي تتم بالذكاء الاصطناعي، خطر توليد الذكاء الاصطناعي لمخرجات غير صحيحة أو مضللة، أو توليد مخرجات غير منطقية أو زائفة، أو خطر النتائج المتحيزة، أو المخاطر التي لم يتم معرفتها بعد.

وأشارت إلى أن هذه التحديات تسلط الضوء على أهمية ممارسات الذكاء الاصطناعي في التعامل مع المخاطر المحتملة والتخفيف منها بشكل فعال.

وبيّنت أن الذكاء الاصطناعي يعطي عطاء الأولوية للاحتياجات البشرية في العلاقة بين الإنسان والذكاء الاصطناعي، ومع انتشار الذكاء الاصطناعي التوليدي بشكل متزايد في مجالات صنع القرار الإبداعي أو الإستراتيجي فقد أصبح من المهم بشكل متزايد تصميم أدوات الذكاء الاصطناعي بشكل مدروس لتعكس وجهات النظر البشرية، فعلى سبيل المثال، قد تغري أدوات الذكاء الاصطناعي التوليدي التي تتسم عادة بالحوارية والتنوع المهنيين بقبول استجابات الذكاء الاصطناعي بشكل سلبي، بدلا من الاستفسار.

وذكرت أن الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى إضعاف قوة اتخاذ القرار لدى المهنيين في المجالات الإستراتيجية، وبالتالي، يجب على علماء السلوك ومتخصصي تجربة المستخدم تصميم تفاعلات بين الإنسان والذكاء الاصطناعي لإيجاد التوازن الصحيح بين الاستفادة من الذكاء الاصطناعي والاعتماد المفرط على الذكاء الاصطناعي.

وتابعت أن تزويد المستخدمين بالدقة المتوقعة من مساعد الذكاء الاصطناعي التوليدي بناء على مدى ملاءمة المساعد للمهام المماثلة هو إحدى الطرق لإيجاد التوازن الصحيح في طيف الثقة في الذكاء الاصطناعي، بينما تشجع مثل هذه التصنيفات المستخدمين على مراجعة الاستجابات والتحقق منها قبل اتخاذ الإجراءات، وخاصة في الحالات ذات المخاطر العالية، وفي إستراتيجية أخرى، قد تطلب واجهة المستخدم من المستخدمين بانتظام تنفيذ المهام يدويا لتمكينهم من مواصلة صقل المهارات الأساسية ذات الصلة، مع دعمها بالذكاء الاصطناعي.

وذكرت أن شركات التأمين التي تعتمد على مساعد الذكاء الاصطناعي التوليدي، قد يُطلب منها للتعامل مع معظم حالاتها، من وقت لآخر، مراجعة المعلومات الأساسية بالتفصيل، قبل الانتقال إلى استكمال تقييمها.

والجراف التالي يبين ترتيب الدول الـ5 الكبرى في حجم أقساط تأمينات الحياة على مستوى أفريقيا في 2023، وفق بيانات “أليانز” العالمية للتأمين:

كيف يتعامل الذكاء الاصطناعي مع التوقعات البشرية؟

وأوضح إيهاب خضر، خبير الإدارة الإستراتيجية وعضو مجلس الإدارة المعتمد ووسيط التأمين، أن الثقة في الذكاء الاصطناعي عامل حاسم في تفاعل المستخدم مع الذكاء الاصطناعي، لكن اكتساب الثقة يعتمد على ما إذا كانت أدوات الذكاء الاصطناعي مفهومة وموثوقة وتلبي التوقعات، وبالتالي تعكس مبادئ الذكاء الاصطناعي، وبدون هذه المكونات، يكون مستخدمو أدوات الذكاء الاصطناعي عرضة للانسحاب.

وأوضح خضر أن العمال يترددون عادة في اتباع النصائح الخوارزمية، ويشير ما يصل إلى 3 من كل 5 مديرين إلى أنهم حذرون من الثقة في أنظمة الذكاء الاصطناعي.

وذكر أن شركة سويس ري أصدرت مؤخرا منصة اكتتاب Life Guide Scout، وهو مساعد اكتتاب أول من نوعه، يعمل بالذكاء الاصطناعي لدليل الاكتتاب، وLife Guide خلال المرحلة التجريبية ركزت في اتصالاتها على الشفافية وإدارة التوقعات مع التركيز بشكل خاص على مصدر البيانات حتى يتمكن المستخدمون من الاستمتاع بالشفافية الكاملة فيما يتعلق بمصدر البيانات، مع تسليط الضوء على أن الشريك هو “Microsoft OpenAI”، مع إيضاح أن المرحلة إنما هي مرحلة تجريبية أو إصدار تجريبي، وإبراز القيود التي تواجه “Life Guide Scout”.

وأردف أن الذكاء الاصطناعي يعمل على تحويل قطاع التأمين على الصحة والسلامة بسرعة، مما يوفر فرصا جديدة للابتكار ومكاسب الكفاءة، ومع تقدم الذكاء الاصطناعي، تتكشف التحديات والمخاطر الجديدة، بما في ذلك التحيز وعدم الدقة والمعلومات المضللة والمعضلات الأخلاقية.

وأكد أن، لتعزيز الاستخدام الجدير بالثقة والمفيد للذكاء الاصطناعي، تحتاج شركات التأمين إلى تبني إطار عمل الذكاء الاصطناعي لتوجيه تطوير واستخدام أنظمة الذكاء الاصطناعي وفقا لمبادئ العدالة والشفافية والمساءلة والمتانة والخصوصية.

وكشف أن الذكاء الاصطناعي لا يتعلق بالجوانب الفنية للذكاء الاصطناعي فحسب، بل يتعلق أيضا بالتفاعل بين الإنسان والذكاء الاصطناعي ومواءمة الذكاء الاصطناعي مع أهداف العمل والقيم المجتمعية، بينما يمكن من خلال تطبيق مبادئ الذكاء الاصطناعي والرؤى المستمدة من العلوم السلوكية أن تعزز شركات التأمين ثقة المستخدمين في الذكاء الاصطناعي، وفي النهاية تحقيق نتائج أفضل لعملائهم ومجتمعهم.