تقنية

هل يمكن أن نثق بالذكاء الاصطناعي

إن كان بالإمكان منح ثقتنا للتكنولوجيا، فهل يمكن لنا أيضا أن نمنح ثقتنا للذكاء الاصطناعي وللخوارزميات؟

هذا السؤال الذي يثير جدلا أخلاقيا وعلميا كبيرا، دفع مجموعة من الباحثين في جامعة جنوب كاليفورنيا لتطوير أداة، أطلقوا عليها اسم ديب تراست، أي (الثقة العميقة)، يقولون إنها تحدد موثوقية البيانات والتنبؤات التي تقدمها خوارزميات الذكاء الاصطناعي، ونُشرِت ورقة بحثهم المرفقة بالأداة الجديدة في دورية فرونتيرز آرتيفيشل إنتلجنس.

ويسوق الباحثون مثال السيارات ذاتية القيادة، ويتحدثون عن أحد المعوقات الرئيسية التي تحول دون اعتمادها في حالة اتخاذ قرارات مستقلة للتعرف على الأشياء التي تظهر على الطريق فجأة، وتمييز المطبات والأشياء عن الحيوانات الأليفة والأطفال، واتخاذ قرارات معينة إن رأت سيارة أخرى تنحرف في اتجاهها. فهل تصطدم السيارة ذاتية القيادة بالسيارة القادمة أم تنحرف لتصدم ما تعتبره جمادا أم طفلا؟

ذكاء قادر على التكيف

يتساءل مينجشي تشينج، المؤلف الرئيس للدراسة، قائلا “إن كان البشر يترددون في اتخاذ بعض القرارات، فلِمَ لا نأخذ من الآلات معلومات قد لا يعرفها البشر، خاصة في الحالات التي تنطوي على معلومات متضاربة؟”.

ويؤيده بول بوجدان، الأستاذ المشارك في البحث، بقوله “إن أداة ديب تراست تستطيع تحديد مقدار عدم اليقين لتطلب التدخل البشري عند الضرورة”.

وحسب بوجدان “إن أراد العلماء زيادة دقة القرارات، ومدى الثقة التي يمكن أن تمنح للذكاء الاصطناعي، فقد تساعد هذه الدراسة في تحديد مقدار الارتباك الذي قد يحدث عند اختبار العينات”.

ويظن الباحثون أن هذا النموذج قد يكون الأول من نوعه. فلا يوجد اليوم نموذج أو أداة لقياس مدى الثقة التي يمكن أن تمنح للتعلم العميق والذكاء الاصطناعي وتعلم الآلة، وهذه هي المحاولة البحثية الأولى، التي يتوقع لها أن تمهد لمحاولات بحثية أخرى.

وقال بوجدان إن الأداة التي قاموا بتطويرها قد تجعل “الذكاء الاصطناعي واعيا وقادرا على التكيف”.

جدل أخلاقي مثل هذا، ناتج عن تطور في تكنولوجيا الذكاء الاصطناعي، وضع الباحثين والعلماء في مأزق، خاصة بعد أن شمل طيفا واسعا من القضايا من ضمنها تقييم آثار تجارب العقاقير الطبية على الأشخاص المتطوعين، وصولا إلى المفاضلة بين الولوج المجاني والمفتوح للإنترنت، وما قد يترتب على ذلك من تهديدات أمنية تشمل سلامة استخدام الشبكة العنكبوتية.

وتطور الذكاء الاصطناعي السريع تسبب في طرح مجموعة جديدة تماما من الأسئلة الأخلاقية تتحدى نسيج المجتمعات، وتهدد بتقويض أو التقليل من أهمية القوانين التي ظلت صامدة للمئات، إن لم يكن للآلاف، من السنين.

تطور الذكاء الاصطناعي تسبب في طرح مجموعة جديدة تماما من الأسئلة الأخلاقية تتحدى نسيج المجتمعات

نعيش اليوم في مرحلة غير مسبوقة في تاريخ البشرية، بات فيها للذكاء الاصطناعي دور رئيس في اتخاذ قرارات تؤثر على العديد من جوانب حياتنا، لكن ماذا لو كنا نجهل الآلية التي توصل فيها هذا الذكاء لقراراته؟ ألن يشكل هذا مصدر قلق لنا؟

تقرير صادر عن الـ”بي.بي.سي” البريطانية أشار إلى مثل هذه القرارات التي تمس حياتنا الاجتماعية والصحية والمالية، وساق أمثلة على مواقف مثل هذه.

تخيل أن طلبا تقدمت به للحصول على تأمين صحي، وجاءك الرد بالرفض، وعندما تسأل عن السبب، يأتيك رد من شركة التأمين تلوم فيه خوارزمية تقييم المخاطر الخاصة بها.

أو أنك تقدمت بطلب للحصول على قرض عقاري وتم رفضه، لكن البنك لا يستطيع إخبارك بالسبب بالضبط.

أو الأكثر خطورة، إذا بدأت الشرطة في القبض على الأشخاص للاشتباه في التخطيط لجريمة بناء على نموذج تنبؤي خوارزمي عملاق.

هذه بعض من السيناريوهات التي طرحها التقرير، تثير قلق صناع التكنولوجيا والباحثين، خاصة ونحن نرى تزايدا في إحلال الذكاء الاصطناعي مكان البشر، ليتسلل إلى المزيد من جوانب حياتنا.

لم يعد الذكاء الاصطناعي حصرا على الهاتف الذكي، أو الألعاب الإلكترونية ووسائل الترفيه، بل غدا عنصرا أساسيا في معظم القطاعات، بما في ذلك البحث الطبي والتشخيص، والمركبات ذاتية القيادة، والمراقبة الأمنية، والحروب، وإصدار الأحكام الجنائية.. لكن بأي ثمن؟ يتساءل واضعو التقرير.

من المسؤول عن الخطأ

إن كان البشر يترددون في اتخاذ بعض القرارات فلِمَ لا نأخذ من الآلات معلومات قد لا يعرفها البشر
إن كان البشر يترددون في اتخاذ بعض القرارات فلِمَ لا نأخذ من الآلات معلومات قد لا يعرفها البشر

لقد أصبحت خوارزميات البرامج معقدة للغاية، حتى أن مطوّريها يجهلون كيف تتوصل إلى الإجابات في معظم الحالات، فالشبكات العصبية اليوم مصممة لتقلد الطريقة التي يفكر بها الدماغ البشري، وتتضمن أعدادا كبيرة من المعالجات المترابطة التي يمكنها التعامل مع كميات هائلة من البيانات، وتحديد الأنماط بين الملايين من المتغيرات باستخدام التعلم الآلي، والأهم من ذلك، هي قادرة على التكيف والاستجابة لما تعلمته، من تنبؤات الطقس إلى تحديد العوارض الأكثر دقة لأمراض السرطان.

نحن نوكل يوميا، ودون أن ندري أحيانا، جوانب رئيسة في حياتنا إلى التكنولوجيا، وبالتالي يزيد هذا من اعتمادنا عليها في اتخاذ قرارات حاسمة.. فمن هو المسؤول عندما تكون النتائج سلبية؟

تنتهي مهمة المطور في كتابة البرامج وتزويدها بالبيانات. الذكاء الاصطناعي هو من يقرر بعد هذا الآلية التي تستخدم فيها تلك البيانات.

عند تصميم تطبيقات الذكاء الاصطناعي، ليست لديك آلية اجتماعية؛ لديك فقط قوانين روبوتية. ولا تعتبر آلة الذكاء الاصطناعي كيانا قانونيا حتى هذه اللحظة، وبالتالي فهي فوق المحاسبة القانونية من الناحية التقنية. إذا لمن نوجه اللوم عندما يتسبب الذكاء الاصطناعي بقتل بشر؟ الآلة أم المطور أم مالك الآلة أم الضحية نفسها؟

يتعين على آليات اتخاذ القرار في عالم الذكاء الاصطناعي معالجة المزيد من البيانات لتصبح أكثر دقة، ويطور الذكاء الاصطناعي قواعده الخاصة من خلال التجربة المستقاة من البيئة؛ حيث ينشأ عن ذلك سلوك مكتسب ذكي.

معضلة الذكاء الاصطناعي يفسرها الخبراء بمثال يطلقون عليه “مشكلة وسيلة النقل”. في حالة وقوع حادث، هل يتم احتجاز وسيلة النقل ذاتية القيادة لتقدم للمحاكمة؟ أم يحتجز الزبون الذي قام بالدفع واشترى التذكرة؟

هل من المقبول أن تقرر وسيلة النقل، في حالة اضطرارية، الاختيار بين رجل بالغ وطفل، ومن يكون الضحية بينهما؟ أخلاقيا، يجب أن ننقذ الطفل، هذا ما يتوقعه الجميع، ولكن كيف سيتخذ الذكاء الاصطناعي قراره؟

هناك العديد من العوامل المؤثرة: السرعة، والنوايا، والتركيبة السكانية، والقيم المحددة ثقافيا لكل فرد. بسبب مشكلات كهذه، تمر صناعة الذكاء الاصطناعي بفترة من التريث.

لا يمكن للذكاء الاصطناعي اتخاذ قرارات أخلاقية ما لم تتم برمجته للقيام بذلك، وحتى إذا تم وضع معايير وقيود أخلاقية من قبل فريق يضم المئات من الباحثين، سيكون من شبه المستحيل التنبؤ بنوع القرار الذي سيتم اتخاذه في كل موقف على حدة.

الشيء الوحيد الذي يمكن ضمانه هو التعلم العميق الذي يمكن الذكاء الاصطناعي من العمل بناء على حصيلة المعارف والبيانات، والأهم من ذلك رسم الخطوط الحمراء التي لا يمكنه تجاوزها.

لقد أصبحت خوارزميات البرامج معقدة للغاية حتى أن مطوريها يجهلون كيف تتوصل إلى الإجابات في معظم الحالات

في موقف مثل هذا، أي عندما يموت شخص ما في حدث مأساوي، يقع العبء في النهاية على عاتق أولئك الذين ليست لديهم المعرفة اللحظية أو المعلومات الحية عن الحدث، وهو أمر ضروري للغاية في أي قرار بشري يتخذ في جزء من الثانية.

الصورة ليست قاتمة كليا، حيث يرى خبراء أن الذكاء الاصطناعي هو أداة لتحسين التجربة البشرية، وليس تهديدها. لقد ثبت أن دور الذكاء الاصطناعي في القضاء على الهدر، وتبسيط العمليات، والتعامل مع القرارات البسيطة والرتيبة داخل بيئة صناعية، على سبيل المثال، هو دور لا يقدر بثمن، والأهم من ذلك أنه لا يحمل سوى القليل من الجدل الأخلاقي الذي تنطوي عليه التطبيقات الأكثر احتلالا للعناوين الرئيسة.

وفي جانبه الإيجابي، يحررنا الذكاء الاصطناعي من عبودية العمل، ويسمح لنا بتكريس المزيد من الوقت للإبداع، وبالتالي أن نكون أكثر إنتاجية وأقل تقييدا بالروتين. ومن خلال تحريرنا من الرتابة، يمكننا إطلاق العنان لمهاراتنا.

قد تكون التكنولوجيا اليوم قادرة على أتمتة العمل الذي نقوم به، ولكن بدلا من أن تسرق منا وظائفنا، تتيح لنا فرصة القيام بأعمالنا بشكل أفضل، مما يجعل العمل الروتيني ممتعا لأنه يزيل الجزء الممل، ونصبح أكثر استقلالية وحرية في البحث عن حلول ووضع معايير جديدة والاضطلاع بدور محسن في عملنا.

وبهذا المعنى، تغدو الأسئلة الأخلاقية أقل دراماتيكية وأكثر قابلية للتحقيق، لكنها لا تزال أساسية. فمنح شخص واحد قوة أكبر من خلال استخدام الذكاء الاصطناعي، يتطلب مدونة أخلاقية مشددة يتبعها.

وعندما تكون حياة الناس موضع اختبار، وبغض النظر عن مدى بساطة الروتين المتبع، ستكون هناك دائما حاجة لاتخاذ قرارات صعبة، لا يمكن أن يتخذها إلا البشر.

وعندما نقبل بكل هذا، تصبح المعضلات المحيطة بالتطبيقات التجريبية للذكاء الاصطناعي واضحة بالنسبة لنا، ومن المستحيل فهمها إلا من خلال إطار أخلاقي.

مزايا الذكاء الاصطناعي واضحة، لكن لا يمكن تجاهل قيودها، وقد نحتاج إلى تحول عميق في الطريقة التي نرى بها، كبشر، قيمة حياتنا، من أجل إحراز أي تقدم كبير في هذا المجال.

يعتمد عالمنا المستقبلي على الشركات التي تبتكر تقنيات المستقبل ورؤيتها ومهاراتها وفهمها للأمن السيبراني وأخلاقياته. والثقة في هذا كله هي حجر الزاوية..

الأخلاق أولا وأخيرا

البشر لن يكونوا قادرين على جني فوائد الذكاء الاصطناعي بشكل كامل إلا إذا وثقوا به
البشر لن يكونوا قادرين على جني فوائد الذكاء الاصطناعي بشكل كامل إلا إذا وثقوا به

في أبريل العام الماضي، نشر فريق خبراء تابع للمفوضية الأوروبية، معني بالذكاء الاصطناعي، إرشادات أخلاقية ضرورية لمنح الخوارزميات الثقة، وشدد التقرير على أن البشر لن يكونوا قادرين على جني فوائد الذكاء الاصطناعي بشكل كامل إلا إذا وثقوا به.

وتدعو المبادئ التوجيهية إلى تطوير “ذكاء اصطناعي جدير بالثقة” من خلال التأكيد على عنصرين: الأول، احترام الحقوق الأساسية واللوائح المعمول بها والمبادئ والقيم الأساسية، وضمان “الغرض الأخلاقي”. والثاني، الموثوقية التقنية، لتجنب الضرر غير المقصود الناجم عن الافتقار إلى التمكن التكنولوجي. الذكاء الاصطناعي الجدير بالثقة، وفقا لهذين العنصرين، هو ذكاء اصطناعي أخلاقي وقانوني.

وتعد صياغة الإرشادات مبادرة رائدة، فهي تضع لأول مرة إطارا معياريا لتطوير ونشر واستخدام الذكاء الاصطناعي في الاتحاد الأوروبي، وتطمح أيضا إلى تقديم إرشادات للمناقشات التي تجري خارج الاتحاد الأوروبي، بحجة أن الاتحاد الأوروبي يجب أن يتبع نهجا محوره الإنسان، حيث تكون للبشر الأولوية في المجالات المدنية والسياسية والاقتصادية والاجتماعية.

وتستخدم المبادئ التوجيهية نهجا قائما على الحقوق الفردية، من خلال وضع أسس للذكاء الاصطناعي يكون جديرا بالثقة في الحقوق الأساسية، إضافة إلى مبادئ أربعة هي: احترام استقلالية الإنسان، ومنع الضرر، والإنصاف، وقابلية التفسير. وتوضح الوثيقة أيضا الأساليب الفنية وغير التقنية لتحقيق الذكاء الاصطناعي الموثوق به.

الحديث المجازي عن الذكاء الاصطناعي الجدير بالثقة، يتجاهل الخلافات الحقيقية حول القيم الأخلاقية في الأدب والفلسفة، فغالبا ما يكون الأشخاص الذين نعتبرهم جديرين بالثقة، قادرين على خيانتنا، بينما لا يمكننا أن نتخيل أن الروبوتات والخوارزميات يمكن أن تخيب أملنا وتخون ثقتنا.

مقالات ذات صلة

زر الذهاب إلى الأعلى