الذكاء الاصطناعي القابل للتفسير؟ مفتاح سد فجوة الثقة في الذكاء الاصطناعي

مع تزايد تعقيد نماذج الذكاء الاصطناعي الحالية، يهدف الذكاء الاصطناعي القابل للتفسير إلى جعل مخرجات الذكاء الاصطناعي أكثر شفافية وقابلية للفهم

بواسطة جورج لونجو – نائب الرئيس للشرق الأوسط وأفريقيا في شركة Dynatrace.


زادت وظائف وتعقيدات تطبيقات الذكاء الاصطناعي الموجهة للأعمال بشكل كبير. لذا، تحتاج المؤسسات الآن إلى قدرات جديدة، مثل الذكاء الاصطناعي القابل للتفسير أكثر من أي وقت مضى. كما استفادت أدوات DevOPS وأنظمة الاستجابة الأمنية، وتقنيات البحث وسواها من تقدم تكنولوجيا الذكاء الاصطناعي. وقد عززت ميزات الأتمتة والتحليل على وجه الخصوص، الكفاءة التشغيلية والأداء عبر تتبع الحالات المعقدة أو كثيفة المعلومات والاستجابة لها.

مع ذلك، يطرح التعقيد المتزايد لنماذج الذكاء الاصطناعي قضية بارزة، وهي الشفافية. فمع كون العديد من نماذج الذكاء الاصطناعي المتطورة معقدة للغاية في كيفية اتخاذ القرار بشأن المخرجات، فإن العديد من خبراء المجال لا يستطيعون فهم كيف أو لماذا يتخذ النموذج قراراته. يُطلق على هذه الحالة عادة اسم مشكلة الصندوق الأسود، ويهدف الذكاء الاصطناعي القابل للتفسير إلى معالجة هذه المشكلة.

ما هو الذكاء الاصطناعي القابل للتفسير، ولماذا يُعد ضرورياً؟

الذكاء الاصطناعي القابل للتفسير يشكل جزءاً من ميادين الذكاء الاصطناعي الهادفة إلى جعل مخرجاته أكثر شفافية وقابلية للفهم، مما يسهم في بناء الثقة وزيادة الاطمئنان لدى الفرق المستفيدة من الذكاء الاصطناعي. في سياق مثالي، يقوم نموذج ذكاء اصطناعي قوي بأداء مهام معقدة مع تمكن المستخدمين من مراقبة عملية اتخاذ القرار ومراجعة أي أخطاء أو مخاوف قد تحدث.

تتزايد أهمية فهم الذكاء الاصطناعي بغض النظر عن التطبيق والقطاع الذي تعمل فيه المؤسسة التي تتبنى حلوله. فعلى سبيل المثال، قد تحتاج تطبيقات التمويل والرعاية الصحية إلى الامتثال للمتطلبات التنظيمية التي تتعلق بشفافية أدوات الذكاء الاصطناعي. كما تأتي المخاوف المتعلقة بالسلامة في مقدمة تطوير المركبات ذاتية القيادة، ويُعد فهم النموذج الخاص بقيادة المركبة أمراً بالغ الأهمية لتحسين الوظائف في هذه التكنولوجيا والحفاظ عليها. لذلك، غالباً ما يكون الذكاء الاصطناعي القابل للتفسير أكثر من مجرد مسألة رفاهية، فهو جزء مهم من العمليات التجارية ومعايير الصناعة.

مواضيع مشابهة

مع التطوير والتبني المتزايد للتقنيات المدعومة بالذكاء الاصطناعي، من المُتوقع أن تتزايد التشريعات الحكومية والصناعية الهادفة لتنظيمه. فعلى سبيل المثال، أصدرت دولة الإمارات العربية المتحدة، التي كانت أول دولة في التاريخ تعين وزيراً للذكاء الاصطناعي، دليلاً رسمياً لأخلاقيات الذكاء الاصطناعي من أجل تعزيز الحوار حول أخلاقيات الذكاء الاصطناعي ومساعدة الجهات الفاعلة في مجال الذكاء الاصطناعي على الالتزام بمبادئه الأساسية. علاوة على ذلك، يساعد دليل مبادئ وإرشادات أخلاقيات الذكاء الاصطناعي الذي أصدرته إمارة دبي قطاع الصناعة والأوساط الأكاديمية والأفراد في فهم كيفية استخدام أنظمة الذكاء الاصطناعي بشكل مسؤول، وهو مُكوّن من مبادئ وإرشادات وأداة تقييم ذاتي للمطورين لتقييم منصاتهم.

تم تأسيس الهيئة السعودية للبيانات والذكاء الاصطناعي (SDAIA) في المملكة العربية السعودية لتتولى مسؤولية الأجندة الوطنية للبيانات والذكاء الاصطناعي، بهدف الارتقاء بالمملكة إلى أعلى مستوى من الاقتصادات القائمة على البيانات. فقامت الهيئة بتحليل الممارسات والمعايير العالمية لتطوير دليل مبادئ أخلاقيات الذكاء الاصطناعي، والذي تم نشره في سبتمبر 2023. ويهدف هذا الدليل إلى مساعدة المملكة على تحقيق رؤيتها واستراتيجياتها الوطنية في تبني تكنولوجيا الذكاء الاصطناعي، وتشجيع البحث والابتكار، ودفع النمو الاقتصادي من أجل التطور والازدهار.

هناك أيضاً قلق حيال التحيز والاعتمادية في نماذج الذكاء الاصطناعي. فلقد أصبحت هلوسات الذكاء الاصطناعي التوليدي موضوعاً يشيع الحديث عنه مؤخراً. بالإضافة لذلك، تمتلك نماذج الذكاء الاصطناعي تاريخاً طويلاً من تحيز المخرجات على أساس العرق، والجنس، وغيرها من الأمور. تعتبر أدوات وممارسات الذكاء الاصطناعي القابل للتفسير مهمة لفهم تحيزات مثل ما سبق ذكره والتخلص منها لتحسين دقة المخرجات والكفاءة التشغيلية.

في نهاية المطاف، يسعى الذكاء الاصطناعي القابل للتفسير إلى تطوير وتحسين قدرات المؤسسة، فالمزيد من الشفافية يعني فهماً أفضل للتكنولوجيا المستخدمة، واستكشاف الأخطاء وإصلاحها بشكل أفضل، والمزيد من الفرص لضبط أدوات المؤسسة.

التحديات الحالية للذكاء الاصطناعي القابل التفسير التي تواجه المؤسسات

يمكن أن يعني الذكاء الاصطناعي القابل للتفسير عدة أشياء مختلفة، لذا فإن تعريف المصطلح بحد ذاته يمثل تحدياً. بالنسبة للبعض، هو عبارة عن منهجية تصميم – ركيزة أساسية لعملية تطوير نماذج الذكاء الاصطناعي. وهو أيضاً اسم لمجموعة من المزايا أو الإمكانات المُتوقعة من الحلول القائمة على الذكاء الاصطناعي، مثل أشجار اتخاذ القرار ومكونات لوحة المعلومات. كما يمكن أن يشير المصطلح إلى طريقة استخدام أداة الذكاء الاصطناعي التي تدعم مبادئ شفافية الذكاء الاصطناعي. في حين أن كل هذه الأمثلة صحيحة لشرح معنى الذكاء الاصطناعي القابل للتفسير، إلا أن دوره الأهم هو تعزيز قابلية تفسير الذكاء الاصطناعي عبر مجموعة من التطبيقات.

هناك قيد آخر لتقنيات الذكاء الاصطناعي القابل للتفسير الحالية، وهو فاعليتها التي تختلف اعتماداً على النموذج. إذ أن بعض النماذج، مثل التعلم العميق أو النماذج القائمة على الشبكة العصبية كثيفة ومعقدة، مما يجعلها صعبة التفسير. من ناحية أخرى، تتسم أشجار اتخاذ القرار والنماذج الخطية بسهولة فهمها وشفافيتها بفضل عملية قراراتها الواضحة التي تُتخذ بواسطة رسم خرائط التبعية.

لا تزال منهجيات الذكاء الاصطناعي القابل للتفسير في المراحل الأولى من التطوير. وبعد خمس سنوات من الآن، ستكون هناك أدوات وأساليب جديدة لفهم نماذج الذكاء الاصطناعي المعقدة، حتى مع استمرار هذه النماذج في النمو والتطور. في الوقت الحالي، من المهم أن يواصل خبراء الذكاء الاصطناعي ومزودو خدمات الحلول سعيهم لتحقيق قابلية تطبيقات الذكاء الاصطناعي للتفسير من أجل تزويد المؤسسات بأدوات ذكاء اصطناعي آمنة وموثوقة وقوية.

تحليل المكونات الرئيسية للذكاء الاصطناعي القابل للتفسير

الذكاء الاصطناعي القابل للتفسير هو موضوع واسع. لذلك، من الصعب تجميع قائمة محددة من السمات لجميع حلول الذكاء الاصطناعي القابل للتفسير. كما تفضل بعض المقاربات جوانب معينة على جوانب أخرى، أو تنطبق فقط على نماذج معينة لتعلم الآلة. ومع ذلك، يحتاج أي نهج شامل للذكاء الاصطناعي القابل للتفسير إلى مراعاة المكونات التالية:

  • قابلية التفسير: من الضروري وجود القدرة على تفسير نموذج الذكاء الاصطناعي. ويجب أن تكون تنبؤات الذكاء الاصطناعي، وقراراته، والمخرجات قابلة للفهم للإنسان، ويجب على الأقل أن تكون قابلة للتتبع من خلال عملية اتخاذ القرار الخاصة بالنموذج. من المرجح أن يعتمد عمق قابلية التفسير التي تحتاجها مؤسستك على النموذج الذي تريد جعله أكثر قابلية للفهم وحالات الاستخدام الخاصة بك.
  • طرق التواصل: إن كيفية قيام العرض الموجه بالذكاء الاصطناعي القابل للتفسير بتوصيل المعلومات أمر بالغ الأهمية أيضاً. فتُعد أدوات التصوّر القوية ضرورية لتحقيق أقصى قدر من الاستفادة من أي نموذج من نماذج الذكاء الاصطناعي القابل للتفسير. كما تُعد أشجار القرار ولوحات المعلومات طريقتين شائعتين للتصور واللتين تقدمان بيانات معقدة بتنسيق يمكن قراءته بسهولة. ويمكن لهذه الأدوات تحويل البيانات إلى رؤى قابلة للتنفيذ. مجدداً، تعتمد فائدة استخدام أدوات التصور المختلفة على نموذج الذكاء الاصطناعي.
  • الفهم العام مقابل المخصص: أخيراً، هناك فرق مهم بين التفسيرات العامة والمخصصة. التفسيرات العامة هي تحليلات ومعلومات تمنح المستخدمين المعرفة حول كيفية عمل النموذج ككل. ويمكن أن يتضمن ذلك إظهار أجزاء البيانات المُستخدمة خلال سلسلة من المهام، وأين تعمل الأنظمة الآلية، وما تفعله، والمزيد. فيما أن التفسيرات المخصصة هي رؤى حول القرارات الفردية لنموذج الذكاء الاصطناعي. وتعتبر هذه الأمور مهمة إذا كانت المؤسسة بحاجة إلى فهم مخرجات غريبة أو غير صحيحة أو الحصول على معلومات شفافة لأسباب تتعلق بتنظيم الصناعة.
شارك المحتوى |
close icon