in

المعضلة الأخلاقية للذكاء الاصطناعي.. هل سيقف الإنسان مكبلا أمام التكنولوجيا؟

هل سيتمكن العلماء من جعل الذكاء الاصطناعي يتمتع بأخلاقيات لمنعه من اتخاذ قرارات متطرفة (بكساباي)

تماما مثل اختراع الورق والطباعة والفولاذ والعجلات، يمثل الذكاء الاصطناعي الذي يعتمد على الحاسوب تكنولوجيا ثورية، يمكنها أن تغيّر الطريقة التي نعمل بها، وأسلوب لعبنا. وقد شرعت هذه التكنولوجيا بالفعل في إحداث تغييرات بأشكال قد لا نلاحظها.

وأفاد الكاتب جون ميلر، في تقرير نشرته مجلة “أميركا ماغازين” الأميركية، بأنه بينما تضخ العديد من الشركات على غرار فيسبوك وآبل وغوغل مليارات الدولارات لتطوير قطاع الذكاء الاصطناعي، ظهر مجال أكاديمي جديد يعنى بالجانب الأخلاقي لهذه التكنولوجيا. ويتمثل الهدف من وراء ذلك في دراسة التبعات المعنوية لهذا التطور، واحتواء الضرر الذي قد يحدثه، ودفع شركات التقنية إلى تضمين المبادئ الاجتماعية، مثل احترام الخصوصية والإنصاف، في مخططاتها التجارية.

وفي هذا السياق، قال براين غرين، الباحث في أخلاقيات الذكاء الاصطناعي بجامعة سانتا كلارا في كاليفورنيا، إن “العديد من الأشخاص قد استرعى انتباههم فجأة البعد الأخلاقي لهذه التكنولوجيا بعد أن أدركوا أن لها تبعات خطيرة، علما أن هذه التكنولوجيا تمثل أكبر تطور عرفته البشرية منذ اكتشاف النار”.

الفلسفة والدين

وأوضح الكاتب أن مجال أخلاقيات الذكاء الاصطناعي يتضمن فرعين أساسيين. يهتم الأول بالجانب الفلسفي والديني حول تغيير هذه التكنولوجيا لمصيرنا ودورنا في هذا الكون نحن البشر. ويعد الفرع الثاني أكثر بساطة، حيث يطرح أسئلة بشأن تأثير الذكاء الاصطناعي على المنتجات الاستهلاكية، مثل الهواتف الذكية والطائرات المسيّرة وخوارزميات شبكات التواصل الاجتماعي.

غوغل واحدة من أبرز شركات التقنية التي ضخت الملايين لتطوير تقنيات الذكاء الاصطناعي مثل حاسوب ديب مايند (غيتي)

ويعنى التناول الفلسفي لقوة الذكاء الاصطناعي بإمكانية تجاوز هذه التكنولوجيا للقدرات البشرية، من خلال الجمع بين مهارات الحوسبة ومواهب الإنسان مثل التعلم من الأخطاء والشك وحب الاطلاع. وقد اعتمدت كلمة “تفرد” لوصف اللحظة التي تصبح فيها الآلة أكثر ذكاء وقوة من البشر، مما سيمثل إشكالا حقيقيا، تكون له تبعات فلسفية ودينية معقدة.

وحسب الكاتب، ليس من الواضح حاليا أن هذا السيناريو سيتحقق. بناء على ذلك، من الأفضل التركيز على الفرع الثاني من مجال أخلاقيات الذكاء الاصطناعي، أي التطرق إلى الأسئلة العملية، مثل مدى أخلاقية أن يعرف هاتفنا المحمول متى نكون في حاجة لشراء البيتزا.

وأوضح الكاتب أن هناك فئة من الذكاء الاصطناعي البسيط أخذت فعليا تلعب دورا في حياتنا، مثل خدمة خرائط غوغل التي ترشدنا على الطريق، والمساعد الصوتي “سيري” الذي يجيب عن أسئلتنا، إضافة إلى سرقة شركة كامبريدج أناليتيكا بيانات شخصية للمساعدة على التلاعب في الانتخابات، والطائرات بلا طيار التي تختار بنفسها الأهداف التي تطلق عليها النار في ساحة المعركة.

في حقيقة الأمر، وحتى قبل وصول الإنسان الآلي إلى درجة يصبح فيها هو السيد، يمكن أن يترتب عن تقنيات الذكاء الاصطناعي الموجودة حاليا العديد من السيناريوهات المروعة، على غرار تخلص نظام تعديل درجة الحرارة من كل البشر، لأن ذلك يمثل طريقة منطقية لتبريد الكوكب. كما يمكن أن تسيطر شبكة من الحواسيب التي تحصل ذاتيا على الطاقة، على محطات للطاقة النووية حتى تؤمن احتياجاتها من الكهرباء.

وفي هذا الصدد، أفاد تاي وان كيم المتخصص في أخلاقيات الذكاء الاصطناعي في جامعة كارنيجي ميلون في بيتسبرغ، بأن “شركات وادي السيليكون تفتقر إلى الوعي بالمسائل الأخلاقية، كما أن المؤسسات الدينية والحكومات ليس لديها اطلاع كاف على هذه التكنولوجيا حتى تنخرط في النقاش الدائر. وبالتالي، يتمثل دورنا في تقليص هذه الهوة بين الطرفين”.

أسئلة أخلاقية مطروحة

في الأثناء، لا تزال هناك العديد من الأسئلة الأخلاقية المطروحة في الصدد من قبيل: هل نسمح مثلا لشركات التقنية بجمع وتحليل الحمض النووي للأفراد، وبيع هذه البيانات لشركات تصنيع الدواء من أجل إنقاذ الأرواح؟ وهل من الممكن تطوير برمجية تتخذ القرارات بشأن عقود التأمين على الحياة والموافقة على تقديم القروض؟ وهل يجب على الحكومات حظر أجهزة الروبوت التي تقدم الخدمات الجنسية للإنسان بشكل يحاكي الواقع؟ وكم يجب أن نستثمر في هذه التكنولوجيا التي تسببت في خسارة ملايين الناس لوظائفهم؟

الذكاء الاصطناعي قد يساهم في خسارة الملايين وظائفهم (رويترز)

وأشار الكاتب إلى أن شركات التقنية بدأت بتكريس المزيد من الجهد للتعاطي مع المسائل الأخلاقية، كما أخذ مديرو هذه الشركات يفكرون بجدية في تأثيرات اختراعاتهم. وقد أجري مؤخرا استطلاع للرأي بين مديري شركات وادي السيليكون، أظهر أن عددا منهم منعوا أطفالهم من استخدام الهاتف الذكي.

وفي يونيو/حزيران الماضي، اتخذت شركة غوغل خطوة لمحاولة طمأنة الرأي العام والمسؤولين من خلال نشر قائمة بسبعة مبادئ تنظم استغلالها للذكاء الاصطناعي. وقد نصت المبادئ على أن هذه التكنولوجيا يجب أن تكون مفيدة اجتماعيا، وأن لا تساهم في تعزيز الانحياز والظلم، وتكون مطورة ومجربة من حيث معايير السلامة، وخاضعة للمحاسبة من قبل البشر. كما تحترم خصوصية الأفراد، وتتضمن أعلى معايير التميز العلمي، وتكون متاحة للاستغلال وفق كل هذه المبادئ.

من جانبه، كتب المتخصص في أخلاقيات الذكاء الاصطناعي تاي وان كيم مقالا نقديا إثر نشر قائمة غوغل، أكد من خلاله أن هذه الشركة، ورغم تعهدها باحترام هذه المبادئ السبعة، يمكن أن تستغل القوانين المحلية لصالحها في بعض البلدان. فعلى سبيل المثال، إذا سمحت الصين باستغلال الذكاء الاصطناعي لانتهاك حقوق الإنسان، لن تتردد غوغل في القيام بهذا الأمر.

وتطرق الكاتب إلى مسألة أخرى باتت مطروحة بقوة، وهي انعكاسات هذه التكنولوجيا على مجال التوظيف. فقد أدى اختراع محلج القطن (الآلة التي تقوم بفصل ألياف القطن عن البذور) في القرن 19 إلى التخلص من العمل اليدوي في هذا المجال، ولكن ذلك أنعش قطاعات صناعية تعنى بتوفير الحديد والخشب لهذه الآلات. وعندما حلت السيارات محل الخيول، عوضت فرص العمل في الإسطبلات بالعمل في الصناعة الميكانيكية.

ولكن الباحثين في أخلاقيات الذكاء الاصطناعي يقولون إن الثورة التكنولوجية الحالية مختلفة تماما، لأنها الأولى من نوعها التي تشمل إمكانية تعويض الإنسان في المهام الفكرية. ويمكن أن يخلق هذا الأمر مشكلة بطالة دائمة. من جهته، يرى كيم أن الحل الاقتصادي لمشكلة البطالة يكمن في إقرار الدخل الأساسي العالمي، أي توزيع مبلغ مالي على كل مواطن. ولكن هذا الحل لا يأخذ بعين الاعتبار مشكلة عيش الفرد من دون نشاط هادف في الحياة، وهو ما تمثله الوظيفة بالنسبة له.

وفي السياق ذاته، أكد كيم أن المال لوحده غير كاف حتى يكون لحياتنا غاية، لأن العمل يمنحنا أشياء أخرى مثل الانتماء للمجموعة وإمكانية تطوير الشخصية، وتحقيق الكرامة واكتساب المعارف الثقافية. ولكن، بغض النظر عن قوة هذه الحجة المتعلقة بقيمة العمل، إلا أنه طالما أن مجتمعاتنا محكومة بالرأسمالية، سيكون الروبوت أكثر جاذبية في ظل قدرته على العمل بشكل سريع وأقل تكلفة.

السيارات ذاتية القيادة

وأورد الكاتب أن واحدة من أكثر الوظائف انتشارا في الولايات المتحدة تتمثل في قيادة وسائل النقل. وفي الوقت الراهن، باتت السيارات والشاحنات ذاتية القيادة تهدد وظائف الملايين من سائقي سيارات الأجرة والشاحنات. ورغم أننا لا نزال على بعد عشر سنوات على الأقل من اليوم الذي تكتسح فيه السيارات ذاتية القيادة شوارعنا، تعتبر وسائل النقل جزءا هاما من الحياة العصرية، وأي تغيير فيها سيؤثر بشكل كبير على مجتمعاتنا.

السيارات ذاتية القيادة قد تجد نفسها في مواقف معقدة وحرجة تضطرها إلى اتخاذ قرارات ذات نتائج كارثية (الفرنسية)

وتساءل الكاتب عن مسألة باتت تثار حول اكتساح الذكاء الاصطناعي مجال النقل، ألا وهي طبيعة القرارات التي قد تتخذها هذه التكنولوجيا في الحالات المعقدة والحرجة. فإذا واجهت حافلة مليئة بالركاب موقفا خطيرا في الطريق، وتوجب عليها الاختيار بين الحفاظ على مسارها وقتل مجموعة من الأشخاص، أو تغييره وقتل طفل واحد على سبيل المثال، كيف لها أن تختار القرار الأنسب.

ويعتبر الكاتب أن هذه المسألة معقدة للغاية، ولن تنشأ أي خوارزميات يمكنها حلها بالنظر لحجم الأضرار البشرية التي يمكن أن تنجم عن كل اختيار. فكيف يمكن إقناع شخص يركب دراجة أن نظام التحكم الآلي في الحافلة اختار دهسه وقتله، حتى لا يتعرض ركاب الحافلة لحادث يسبب لهم إعاقات دائمة؟

من جانبه، يعتقد خبير السيارات في مؤسسة غارتنر للأبحاث والاستشارات مايك رامسي أن هناك مشكلا آخر لا يقل خطورة يتمثل في فرضية برمجة الذكاء الاصطناعي لخرق القوانين بشكل متعمد. فهل سيكون مقبولا أخلاقيا إجبار الحاسوب على احترام الحد الأقصى للسرعة، عندما تكون كل السيارات الأخرى بصدد اجتياز هذا الحد؟

وأردف هذا الخبير أن “البشر يخرقون القواعد طوال الوقت، ولكن بطريقة عقلانية. فقد يوقف أحدهم سيارته لإنزال مرافقيه في أماكن غير مخصصة لذلك، الأمر الذي دائما ما ينقضي دون تبعات، رغم أنه ممنوع حسب نظام الطرقات. في الأثناء، يعد اتخاذ مثل هذا القرار المنطقي من قبل الآلة أمرا مستحيلا.

كما ترى أستاذة الفلسفة في جامعة “سانتا كلارا” شانون فالور أن هذه التكنولوجيا تمثل خطرا فيما يتعلق بتسبب أنظمة الذكاء الاصطناعي في تعميق الفوارق والتفاوت الاجتماعي. فعلى مستوى القروض العقارية وعقود التأمين، يمكن لهذه البرمجيات طلب ضمانات أكبر من الفئات الاجتماعية المهمشة بعد النظر في تاريخ العائلة وممتلكاتها.

وذكر الكاتب أن حياتنا وخياراتنا أصبحت خاضعة لتأثيرات برمجيات التكنولوجيا الذكية. في المقابل، أجمع جلّ الخبراء في مجال أخلاقيات الذكاء الاصطناعي الذين تم التواصل معهم، على أن البشر لا يزالون يمتلكون زمام القرار خاصة في المسائل الهامة، ولم يفقدوا حريتهم بعد.

المصدر : الجزيرة

كُتب بواسطة محمد الغرياني

قوات حفتر تعجز عن حماية مشروع النهر…. والاعتداءات مستمرة

رائد السيمفونية الليبية الهادي الشريف في ذمة الله #”انفوغراف”