Wednesday, July 31, 2019

أخلاق الذكاء الاصطناعي: كيف سنصل لأنظمة ذكاء اصطناعي تحترم قيمنا الإنسانية؟

تهدف أنظمة الذكاء الاصطناعي إلى جعل حياتنا أفضل بكل الطرقة الممكنة،
ويشهد هذا الذكاء تطوراً كبيراً يوماً بعد يوم، فكانت البداية من الذكاء
الاصطناعي الضعيف أو الضيق ذو القدرات المحدودة وردود الفعل المبرمجة،
بينما تتوجه الآن كل الجهود نحو الذكاء الاصطناعي القوي الذي يرتكز على
محاولات لنسخ الحالات العقلية الشبيهة بالإنسان، والقادر على جمع
المعلوماتتهدف أنظمة الذكاء الاصطناعي إلى جعل حياتنا أفضل بكل الطرقة
الممكنة، ويشهد هذا الذكاء تطوراً كبيراً يوماً بعد يوم، فكانت البداية
من الذكاء الاصطناعي الضعيف أو الضيق ذو القدرات المحدودة وردود الفعل
المبرمجة، بينما تتوجه الآن كل الجهود نحو الذكاء الاصطناعي القوي الذي
يرتكز على محاولات لنسخ الحالات العقلية الشبيهة بالإنسان، والقادر على
جمع المعلومات وتحليلها ومراكمة الخبرات من المواقف، ومن الأمثلة عليه
المركبات ذاتية القيادة.

إنّ نظام الذكاء الاصطناعي القوي قادر على التعلم ذاتياً بدون مساعدة
بشرية حيث يوّلد معرفته الخاصة، لذلك لن يكون الإنسان قادراً على معرفة
قدرات هذا الذكاء أو القرارات التي سيتخذها، ومن هنا تبرز الحاجة إلى
إنشاء إطار أخلاقي يحدد مجال العمل ويمنع النظام من اتخاذ قرارات تتعارض
مع الأخلاق، فهل من الممكن أن نبرمج أخلاق الذكاء الاصطناعي؟ وهل يمكن أن
يحترم هذا الذكاء القيم الإنسانية؟ هذا ما سنناقشه في مقالنا.

اقرأ المزيد: ماذا تفعل عند فشل الخوارزميات؟ ابحث عن أقرب إنسان وألقِ اللوم عليه

مخاطر التعلم الذاتي

مشاكل خوارزميات التعلم

تشكل البيانات الوقود الذي يغذي الذكاء الاصطناعي، لكن ما الذي سيحدث إذا
احتوت هذه البيانات على عيوب، أو إذا كانت خوارزميات التعلم غير مضبوطة
بشكل مناسب لتقييم هذا البيانات، عندها يمكن للأمور أن تتخذ منحى خاطئ
تماماً، ففي عام 2016 صممت شركة مايكروسوفت بوت دردشة Chatbot سُمي Tay
للتفاعل مع مستخدمي تويتر، لكن الأمور لم تسر على نحو جيد إطلاقاً.

استغل مجموعة من المستخدمين خطأ في خوارزمية البوت، وقاموا بإفساده من
خلال تعليمه العديد من الأفكار العنصرية والمهينة لقناعات ومعتقدات
الآخرين، وفي أقل من 24 ساعة على إطلاقه نشر عدد من التغريدات المثيرة
للجدل، كان أهمها تعبيره عن دعمه للإبادة الجماعية، مما دفع الشركة
لإيقافه فوراً، وكانت سرعة تبنيه لمثل هذه الأفكار درساً قاسياً لها.

مشكلة الصندوق الأسود

في حالة الذكاء الاصطناعي الضيق يمكن للمهندسين في مرحلة التصميم تنفيذ
سلسلة قرارات لوضع قواعد معينة، كما يمكنهم توقع سلوك هذا الذكاء بسهولة،
لكن في حالة الذكاء الاصطناعي القوي فإنّه يتعلم مباشرةً من البيئة
ويتكيف معها، وذلك من خلال خوارزميات تعلم تقوم بتحليل المعطيات مرة بعد
أخرى ولا يمكن توقع نتائجها بشكل دقيق، حيث تختلف النتائج باختلاف
المعطيات، وبالتالي لا يمكن التنبؤ دائماً بتصرفاته.

تتصرف الآلة الذكية في مثل هذه الحالة كالصندوق الأسود الذي لا يعرف
أداءه الداخلي، أي لا يمكن للإنسان معرفة سبب اتخاذ قرار ما وهذا أمر
خطير وبشكل خاص عندما يتعلق الأمر بالسيارات ذاتية القيادة أو الطائرات
بدون طيار، والتي تحوي خوارزميات معقدة قد تعرض قراراتها حياة الإنسان
للخطر. لذلك من الضروري وجود خوارزميات تلعب دور أخلاق الذكاء الاصطناعي
بحيث تفسر سبب اتخاذ القرارات وتميز بين الصح والخطأ.

اقرأ المزيد: كل ما تريد معرفته عن تقنية التوأم الرقمي Digital Twin

الانحياز

تعد مشكلة الانحياز لعرق أو جنس أو عمر معين من أصعب التحديات الأخلاقية
التي تواجه الذكاء الاصطناعي. تنشأ هذه المشكلة أساساً من المعطيات نفسها
وليس خوارزميات التعلم، حيث تتحدد جودة النموذج بكميّة ونوعيّة البيانات
المقدمّة له، ومن منظور أساسي فإنّ النتائج الجيدة هي تلك التي تزيد
الإنتاجية أو السعادة للغالبية العظمى من الناس، لكن يمكن تخيل عدد لا
يحصى من المشاكل الناتجة عن انحياز ما في بيانات سابقة.

لنأخذ الأنظمة الأمنية التي تستخدم للتنبؤ بمرتكبي الجرائم على سبيل
المثال، إذ تُدرَّب هذه الأنظمة للتميز اعتماداً على عرق أو جنس الفرد،
لا على أفعاله وتحركاته، وأنظمة التعرف على الوجه التي ينقصها تنوع في
العينات، لا تستطيع التعرف على الأشخاص إلى إذا كانوا من نفس عرق عينة
التدريب، والعديد من الأمثلة الأخرى التي تقود إلى مشاكل أكبر.

اقرأ المزيد: جوجل دوبليكس: خطوة جديدة من جوجل لتسهيل حياتك باستخدام
الذكاء الاصطناعي

أخلاق الذكاء الاصطناعي



إن تضمين الأخلاق للذكاء الاصطناعي عملية صعبة جدًا، وذلك بسبب غياب
الإطار الأخلاقي المقبول عموماً، فبينما يفضل بعض الناس المبادئ
الأخلاقية الواردة في النصوص الدينية كالإنجيل والقرآن وغيرها، يختلف
الفلاسفة فيما إذا كانت هذه المبادئ يجب أن تعتمد على الحقوق والواجبات،
أو المنفعة القصوى لأكبر عدد من الناس أو التصرف بشكل قويم.

كما أنه لبناء أنظمة ذكاء اصطناعي تتصرف بشكل أخلاقي، يجب أن تكون
الأفكار حول القيم والصواب والخطأ دقيقة بشكل كافٍ ليتم تطبيقها على
الخوارزميات الحاسوبية، لكن هذه الدقة غير موجودة في المبادئ الأخلاقية
الحالية، فما يمكن أن يكون صائباً بنظر فئة ما من الناس ربما يكون خاطئ
بنظر فئة أخرى.

وفي هذا الإطار، يقترح محمد معاز Mohamad Maaz في دراسة أجراها لصالح
منظمة Internet Society حول أخلاق الذكاء الاصطناعي، أنّ الحل الأمثل
يكمن بزيادة وظيفة الأداة Utility Function بأكبر قدر ممكن، إذ يتم
استخدام هذه الوظيفة لتحديد قيمة ما للنتائج أو القرارات، والحل الأفضل
هو الذي يزيد المنفعة إلى أقصى حد و/أو يقلل من الضرر لأقصى درجة ممكنة،
وبالتالي تتخذ خوارزمية أخلاق الذكاء الاصطناعي القرارات الصائبة.

على سبيل المثال لنفترض وجود سيارة ذاتية القيادة في وضع لا يمكن تجنب
الحادث فيه، وإمّا أن تصدم رجلين على الطريق أو تصطدم بجدار مما سيؤدي
لمقتل الراكب بداخلها. بالاستناد إلى الأخلاقيات النفعية فإن القرار الذي
سيقلل من الضرر هو الذي سيؤدي إلى قتل أقل عدد ممكن من الناس، لذلك ينبغي
أن تتحطم السيارة ويموت الراكب بداخلها لإنقاذ الرجلين من المشاة، حيث
أنّ وظيفة المنفعة (وظيفة الأداة) لهذا القرار هي الأعلى.

اقرأ المزيد: تكنولوجيا التعاطف: هل يمكن أن تشعر الأجهزة بأحاسيسنا؟

هل يمكن أن يكون الذكاء الاصطناعي أكثر أخلاقاً من البشر

لشرح ذلك ناقش معاز أيضاً حالة الطائرات المقاتلة بدون طيار قائلًا:

ترتبط المعضلات الأخلاقية الكبرى بحقيقة أن الديمقراطية لا تستطيع
استخدام هذه الطائرات بدون طيار دون قواعد دقيقة، بسبب ما تتضمّنه من
تركيز على القيم الإنسانية وفق مفهومها. أما بالنسبة للمعضلات الصغيرة
فهي العمليات التشغيلية التي تنفذها هذه الطائرات. مثلاً هل توفر
الكاميرات رؤية واضحة للهدف؟ وإذا لم يكن فما الذي يجب على المشغل فعله؟

تؤكد العقيدة العسكرية على أن الخيارات الأخلاقية هي في نهاية الأمر
مسألة قيم تنظمها القواعد العسكرية، وبناءً عليه سيكون من غير المنطقي
اعتبار العامل الاصطناعي قادر على بناء قرار أخلاقي بدلاً من العامل
البشري، لأن الأخلاقيات هي بالضبط ما ينتج عن الذكاء البشري، فلا يمكن
تفويض الآلة وإعطائها الحق بالقتل، لكن يمكن أن يكون الذكاء الاصطناعي
شرطاً لتحقيق أخلاق أفضل كون الطائرات بدون طيار تعاني من ضغوط أقل من
طيار بشري.

اقرأ المزيد: الذكاء الاصطناعي يتحدى البشر من جديد: تعرف على آلة IBM
التي تتحدى البشر في المناظرة!

No comments:

Post a Comment