You are on page 1of 20

‫<>‬

‫إعالن مونتلاير‬
‫ّ‬
‫الذكاء االصطناعيّ المسؤول_‬
‫<‪> /‬‬

‫االصطناعي‬
‫ّ‬ ‫إعالن مونتلاير من أجل تنمية مسؤولة ّ‬
‫للذكاء‬
‫لعام ‪2018‬‬

‫‪3‬‬
‫جدول‬ ‫تعد هذه الوثيقة جزءا من إعالن مونتلاير من أجل‬
‫االصطناعي لعام ‪.2018‬‬
‫ّ‬ ‫تنمية مسؤولة ّ‬
‫للذكاء‬
‫المحتويات‬ ‫الرابط ال ّتالي ‪:‬‬
‫يمكن العثور على ال ّتقرير الكامل على ّ‬

‫‪5‬‬ ‫قراءة اإلعالن ‬


‫‪7‬‬ ‫ال ّتوطئة ‬

‫المبادئ ‬
‫‪8‬‬ ‫مبدأ الرّ فاه ‬ ‫‪ .1‬‬
‫‪9‬‬ ‫مبدأ احترام االستقالل ّية ‬ ‫‪ .2‬‬
‫‪10‬‬ ‫مبدأ حماية الخصوصيّة والحميم ّية ‬ ‫‪ .3‬‬
‫‪11‬‬ ‫مبدأ ال ّتضامن ‬ ‫‪ .4‬‬
‫‪12‬‬ ‫‪ .5‬مبدأ المشاركة الدّيمقراط ّية ‬
‫‪13‬‬ ‫‪ .6‬مبدأ اإلنصاف ‬
‫‪14‬‬ ‫مبدأ دمج ال ّتنوّ ع ‬ ‫‪ .7‬‬
‫‪15‬‬ ‫مبدأ الحيطة ‬ ‫‪ .8‬‬
‫‪16‬‬ ‫‪ .9‬مبدأ المسؤول ّية ‬
‫‪17‬‬ ‫‪ .10‬مبدأ ال ّتنمية المستدامة ‬

‫‪18‬‬ ‫قاموس المصطلحات ‬

‫‪I‬‬ ‫االعتمادات ‬
‫‪II‬‬ ‫ال ّ‬
‫شركاء ‬

‫تم اعتماد استخدام صيغة المذ ّكر في هذه الوثيقة‬


‫لتسهيل القراءة‪ ،‬دون أي ن ّية لل ّتمييز‪.‬‬

‫‪4‬‬
‫قراءة إعالن مونتلاير من‬
‫أجل تنمية مسؤولة ّ‬
‫للذكاء‬
‫االصطناعيّ‬

‫> على الرّ غم من تقديمها في شكل قائمة‪ ،‬فإنه ال يوجد تسلسل هرمي‪،‬‬ ‫ما الغرض من اإلعالن؟‬
‫إذ ال يقل المبدأ األخير أهميّة عن المبدأ األول‪.‬‬
‫لكن من الممكن إيالء أهميّة ألحد المبادئ أكثر من غيره أو اعتبار أحدها‬ ‫إلعالن مونتلاير من أجل تنمية مسؤولة ّ‬
‫للذكاء االصطناعيّ ثالثة أهداف‬
‫أكثر مالئمة من غيره‪ ،‬وف ًقا للظروف‪.‬‬ ‫رئيسيّة‪ ،‬وهي كما يلي‪:‬‬

‫> على الرّ غم من تنوعها‪ ،‬فإنه يجب أن يتم تأويلها بشكل متناسق لمنع‬ ‫‪ .1‬وضع إطار عمل أخالقي لتطوير ّ‬
‫الذكاء‬
‫حدوث أي تعارض من شأنه أن يمنع تطبيقها‪.‬‬
‫االصطناعيّ ونشره؛‬
‫ترسم حدود تطبيق أحد المبادئ‪ ،‬كقاعدة عامّة‪ ،‬من خالل مجال تطبيق مبدأ‬
‫آخر‪.‬‬
‫‪ .2‬توجيه االنتقال الرّ قميّ حتى يستفيد الجميع‬
‫> على الرّ غم من أنها تعكس الثقافة األخالقيّة والسّياسيّة للمجتمع الذي‬ ‫من هذه الثورة ال ّتقنيّة؛‬
‫الثقافي والدّولي‪.‬‬‫تمثل أساسا للحوار ّ‬
‫احتضن إعدادها فإنها ّ‬
‫‪ .3‬فتح فضاء نقاش وطني ودولي لتحقيق‬
‫> على الرّ غم من إمكانيّة تأويلها بطرق مختلفة‪ ،‬فإنه ال يمكن تأويلها‬
‫تنمية شاملة ومنصفة ومستدامة بيئيًا ّ‬
‫للذكاء‬
‫كيفما ا َّتفَقَ ‪.‬‬
‫من الضّروري أن يكون ال ّتأويل متناسقا‪.‬‬ ‫االصطناعيّ ‪.‬‬
‫> على الرّ غم من كونها مبادئ أخالقيّة‪ ،‬فإنه يمكن ترجمتها إلى لغة‬
‫سياسيّة وتفسيرها بأسلوب قانوني‪.‬‬

‫من هذه المبادئ تم إعداد توصيات تهدف إلى اقتراح إرشادات توجيهيّة لتحقيق‬
‫االنتقال الرّ قميّ ضمن اإلطار األخالقي لإلعالن‪.‬‬
‫ع َّم يدور اإلعالن؟‬
‫شاملة العابرة للقطاعات‬ ‫وهي تهدف إلى تغطيّة بعض الموضوعات الرّ ئيسيّة ال ّ‬
‫وذلك للتفكير في االنتقال نحو مجتمع ُي َم ِّكنُ فيه ّ‬
‫المبادئ‬
‫الذكاء االصطناعيّ من تعزيز‬
‫المصلحة العامّة‪ :‬اإلدارة الخوارزميّة ومحو األميّة الرّ قميّة والدّمج الرّ قميّ‬ ‫يتمثل الهدف األول من اإلعالن في تحديد المبادئ والقيم األخالقيّة ال ّتي تعزز‬ ‫ّ‬
‫للتنوّ ع واالستدامة البيئيّة‪.‬‬ ‫المصالح األساسيّة لألفراد والمجموعات‪.‬‬
‫الذكاء االصطناعيّ عامّة‬ ‫تبقى هذه المبادئ السّاريّة على المجال الرّ قميّ و ّ‬
‫ومجرّ دة‪.‬‬
‫من المهم أخذ ال ّنقاط ال ّتاليّة بعين االعتبار لقراءتها بشكل صحيح‪:‬‬

‫‪5‬‬
‫ماذا بعد اإلعالن؟‬ ‫لمن يتوجه اإلعالن؟‬
‫نظرً ا ألن اإلعالن يهتم بتقنيّة ما انف ّكت تتطوّ ر بثبات منذ الخمسينيات‪ ،‬تقنيّة ما‬ ‫يتوجه إعالن مونتلاير أليّ شخص أو منظمة من المجتمع المدني أو شركة‬
‫فتئت وتيرة ابتكاراتها الرّ ئيسيّة تتسارع بنسق أسي‪ ،‬فإنه من الضّروري اعتبار‬ ‫ترغب في المشاركة في ال ّتطوير المسؤول ّ‬
‫للذكاء االصطناعيّ ‪ ،‬سواء كان‬
‫اإلعالن وثيقة توجيهيّة مفتوحة يمكن مراجعتها ومواءمتها وف ًقا لتطور المعرفة‬ ‫ذلك من أجل المساهمة علم ًّيا أو تقن ًّيا‪ ،‬أو لتطوير مشاريع اجتماعيّة‪ ،‬أو لوضع‬
‫الذكاء االصطناعيّ في المجتمع‪.‬‬ ‫وال ّتقنيات‪ ،‬إلى جانب ردود الفعل على استخدام ّ‬ ‫قواعد (لوائح وقوانين) تنطبق عليها أو للتم ّكن من معارضة مناهج سيّئة أو‬
‫وقد وصلنا في نهاية عمليّة إعداد اإلعالن إلى منطلق محادثة مفتوحة ومدمجة‬ ‫غير حكيمة‪ ،‬أو كي تستطيع تنبيه الرّ أي العام عند الضّرورة‪.‬‬
‫حول مستقبل البشريّة الذي تخدمه تقنيات ّ‬
‫الذكاء االصطناعيّ ‪.‬‬
‫كما أنه يتوجه إلى الممثلين السّياسيين المنتخبين والمعيّنين‪ ،‬والذين يتو ّقع منهم‬
‫مواطنوهم‬

‫تقييم ال ّتغييرات االجتماعيّة الكامنة ووضع إطار عمل يم ّكن من االنتقال‬


‫الرّ قميّ ‪ ،‬على وجه السّرعة‪ ،‬خدمة للمصلحة العامّة‪.‬‬
‫ُمثلها تطوير ّ‬
‫الذكاء‬ ‫كما يتوقع هؤالء المواطنون منهم استباق المخاطر ال ّتي ي ّ‬
‫االصطناعيّ ‪.‬‬

‫إعالن وف ًقا ألي منهج ؟‬


‫نبع اإلعالن من عمليّة تداول شاملة ضمّت مواطنين وخبراء وسلطات عموميّة‬
‫وأطراف صناعيّة فاعلة ومنظمات المجتمع المدني وهيئات مهنيّة‪.‬‬
‫ولهذا ال ّنهج أهميّة ثالثيّة‪:‬‬

‫‪ .1‬ال ّتحكيم الجماعي في الخالفات األخالقيّة والمجتمعيّة حول ّ‬


‫الذكاء‬
‫االصطناعيّ ؛‬

‫‪ .2‬تحسين جودة ال ّتفكير في ّ‬


‫الذكاء االصطناعيّ المسؤول؛‬

‫‪ .3‬تعزيز شرعيّة المقترحات من أجل ّذكاء اصطناعيّ مسؤول‪.‬‬

‫يعد وضع المبادئ وال ّتوصيات عمال مشتركا شمل مجموعة متنوّ عة من‬
‫المشاركين في الفضاءات العامّة وقاعات اجتماعات المؤسسات المهنيّة وحول‬
‫الموائد المستديرة لخبراء دوليين وفي مكاتب بحوث وفصول دراسيّة وعبر‬
‫اإلنترنت‪ ،‬مع احترام نفس المستوى من الصّرامة باستمرار‪.‬‬

‫‪6‬‬
‫توطئة‬

‫ُتعد مبادئ هذا اإلعالن بوصلة أخالقيّة تم ّكن من توجيه تطوير ّ‬


‫الذكاء‬ ‫ألول مرة في تاريخ البشريّة يمكن إنشاء أنظمة مستقلة قادرة على إنجاز المهام‬
‫االصطناعيّ نحو الغايات األخالقيّة واالجتماعيّة المنشودة‪.‬‬ ‫للذكاء الطبيعي ‪ ،‬مثل‪ :‬معالجة كميات‬ ‫المعقدة ال ّتي كان يُعتقد أنها حصريّة ّ‬
‫كما أنها توفر إطارا أخالقيًا يعزز حقوق اإلنسان المعترف بها دوليًا في‬ ‫كبيرة من المعلومات والحساب وال ّتنبؤ والتعلّم وتكييف اإلجابات مع الوضعيات‬
‫المجاالت المعنيّة بتطبيق ّ‬
‫الذكاء االصطناعيّ ‪.‬‬ ‫المتغيرة‪ ،‬إلى جانب ال ّتعرّ ف على األشياء وتصنيفها‪.‬‬
‫بشكل عام‪ ،‬تضع المبادئ المذكورة األساس لتنمية الثقة االجتماعيّة تجاه أنظمة‬ ‫الذكاء البشري‪ ،‬فإننا نطلق‬ ‫نظرً ا للطبيعة غير الماديّة لهذه المهام‪ ،‬وقياسًا على ّ‬
‫الذكاء االصطناعيّ ‪.‬‬‫ّ‬ ‫الذكاء االصطناعيّ ‪.‬‬ ‫على هذه األنظمة المتنوعة مصطلحا عامّا وهو ّ‬
‫هذا وتستند مبادئ هذا اإلعالن إلى االعتقاد المشترك بأن البشر يسعون إلى‬ ‫يُش ِّكل ّ‬
‫الذكاء االصطناعيّ نموذجً ا رئيسيًا لل ّتقدم العلميّ وال ّتكنولوجيّ ‪ ،‬والذي‬
‫اإلنتعاش ككائنات اجتماعيّة تتم ّتع باألحاسيس والمشاعر واألفكار‪ ،‬وأنهم‬ ‫يمكن أن تنتج عنه فوائد اجتماعيّة كبيرة من خالل تحسين ظروف المعيشة‬
‫يسعون جاهدين لتحقيق إمكاناتهم الكامنة من خالل ممارسة قدراتهم العاطفيّة‬ ‫والصّحة وتيسير العدالة وخلق الثروات وتعزيز السّالمة العامّة وال ّتحكم في‬
‫واألخالقيّة والفكريّة بحرّ يّة‪.‬‬ ‫تأثير األنشطة البشريّة على البيئة والمناخ‪.‬‬
‫ويقع على عاتق مختلف الجهات الفاعلة والصّانعة للقرار‪ ،‬العامّة والخاصة‪،‬‬ ‫وال تكتفي اآلالت الذكيّة بإنجاز العمليات الحسابيّة أفضل من البشر بل يمكنها‬
‫سواء كان ذلك على المستوى المحلي أو الوطني أو الدّولي‪ ،‬ضمان توافق‬ ‫أيضًا ال ّتفاعل مع الكائنات الحيّة ومرافقتها والعناية بها‪.‬‬
‫الذكاء االصطناعيّ مع حماية وانتعاش القدرات البشريّة األساسيّة‪.‬‬ ‫تطوير ونشر ّ‬
‫الذكاء االصطناعيّ تحديات أخالقيّة ومخاطر اجتماعيّة‬ ‫ومع ذلك‪ ،‬يواجه تطور ّ‬
‫وسعيًا إلى بلوغ هذا الهدف‪ ،‬يجب تأويل المبادئ المقترحة بطريقة متناسقة‪ ،‬مع‬
‫مراعاة خصوصيّة السّياقات االجتماعيّة ّ‬ ‫كبرى‪.‬‬
‫والثقافيّة والسّياسيّة والقانونيّة لتطبيقها‪.‬‬
‫يمكن لآلالت الذكيّة أن تقوم في الواقع بتقييد اختيارات األفراد والمجموعات‬
‫شغل وال ّتأثير على‬
‫وال ّتخفيض من جودة الحياة وقلب تنظيم العمل وسوق ال ّ‬
‫الحياة السّياسيّة وال ّتعارض مع الحقوق األساسيّة‪ .‬كما يمكن لها أن تساهم في‬
‫تفاقم عدم المساواة االقتصاديّة واالجتماعيّة وال ّتأثير في األنظمة اإليكولوجيّة‬
‫والبيئة والمناخ‪.‬‬
‫وعلى الرّ غم من عدم وجود تقدم علميّ أو حياة اجتماعيّة خاليّة من المخاطر‪،‬‬
‫فإن مهمة تحديد الغايات األخالقيّة والسّياسيّة ال ّتي تعطي معنى لما نواجهه من‬
‫مخاطر في عالم يخلو من اليقين تعود إلى المواطنين‪.‬‬

‫الذكاء االصطناعيّ أكبر كلما قلت المخاطر المرتبطة بنشره‪.‬‬ ‫ستكون فوائد ّ‬
‫الذكاء االصطناعيّ في اإليهام بأنه يمكننا السّيطرة‬ ‫ويتمثل الخطر األوّ ل لتطوير ّ‬
‫ّ‬
‫على المستقبل من خالل الحسابات‪.‬‬
‫ويشكل اختزال المجتمع في سلسلة من األرقام وحكمه من خالل اإلجراءات‬
‫الخوارزميّة حلما قديما ال يزال يغذي طموحات اإلنسان‪.‬‬
‫إال أن الغد نادرا ما يشبه اليوم‪ ،‬كما أن األرقام تعجز عن تحديد ما الذي له‬
‫قيمة أخالقيّة أو‬
‫شؤون اإلنسانيّة‪.‬‬‫ما هو مرغوب فيه اجتماعيًا‪ ،‬عندما يتعلق األمر بال ّ‬

‫‪7‬‬
‫الرفاه‬
‫مبدأ ّ‬
‫‪1‬‬
‫‪ . 1‬يجب أن تساعد أنظمة ّ‬
‫الذكاء االصطناعي األفراد على تحسين ظروفهم المعيشيّة‬ ‫يجب أن يسمح تطوير أنظمة‬
‫وصحّ تهم وظروف عملهم‪.‬‬
‫االصطناعي (‪)SIA‬‬
‫ّ‬ ‫ّ‬
‫الذكاء‬
‫‪ . 2‬يجب أن تسمح أنظمة ّ‬
‫واستخدامها بتنمية رفاه ّية‬
‫الذكاء االصطناعيّ لألفراد بإرضاء خياراتهم‬
‫طالما أنهم ال يسببون أي ضرر لغيرهم من الكائنات الحيّة‪.‬‬
‫جميع الكائنات الح ّية‪.‬‬

‫يجب أن تسمح أنظمة ّ‬


‫الذكاء االصطناعيّ لألفراد بممارسة قدراتهم الجسديّة والعقليّة‪.‬‬ ‫‪. 3‬‬

‫تمثل أنظمة ّ‬
‫الذكاء االصطناعيّ مصدرا للشعور بالضّيق إال إذا مكن هذا‬ ‫‪ . 4‬يجب أال ّ‬
‫ال ّ‬
‫شعور من توليد رفاهيّة كبرى ال يمكن الوصول إليها بطريقة أخرى‪.‬‬

‫الذكاء االصطناعيّ في زيادة ال ّتو ّتر أو القلق‬ ‫‪ . 5‬يجب أال يساهم استخدام أنظمة ّ‬
‫شعور بنوع من ال ّتحرّ ش له عالقة بالبيئة الرّ قميّة‪.‬‬
‫أو ال ّ‬

‫‪8‬‬
‫مبدأ احترام اإلستقالل ّية‬
‫‪2‬‬
‫‪ . 1‬يجب أن تم ّكن أنظمة ّ‬
‫الذكاء االصطناعيّ األفراد من تحقيق أهدافهم األخالقيّة‬ ‫الذكاء‬‫يجب تطوير أنظمة ّ‬
‫ّ‬
‫تستحق العيش‪.‬‬ ‫ومفهومهم للحياة ال ّتي‬
‫االصطناعي واستخدامها‬
‫ّ‬
‫‪ . 2‬يجب أال تطوّ ر أنظمة ّ‬
‫في ظل ّ مراعاة استقالل ّية‬
‫الذكاء االصطناعيّ أو تستخدم لفرض نمط حياة معين على‬
‫األفراد‪ ،‬سواء كان ذلك بطريقة مباشرة أو غير مباشرة‪ ،‬من خالل وضع آليّات إكراهيّة‬
‫األفراد‪ ،‬وبغاية تنمية تح ّكم‬
‫للمراقبة وال ّتقييم وال ّتحفيز‪.‬‬ ‫األفراد في حياتهم وبيئتهم‪.‬‬

‫‪ . 3‬يجب أال تستخدم المؤسّسات العامّة أنظمة ّ‬


‫الذكاء االصطناعيّ لنشر أو تشويه‬
‫مفهوم معيّن للحياة الجيّدة‪.‬‬

‫‪ . 4‬من الضّروري تنمية إمكانات المواطنين فيما يتعلق بال ّتقنيات الرّ قميّة وذلك من‬
‫خالل ضمان الوصول إلى مختلف أنواع المعرفة المناسبة وتنمية المهارات الهيكليّة (محو‬
‫األميّة الرّ قميّة واإلعالميّة) وتشكيل ال ّتفكير ال ّنقدي‪.‬‬

‫‪ . 5‬يجب أال تطوّ ر أنظمة ّ‬


‫الذكاء االصطناعيّ لنشر معلومات غير موثوقة أو أكاذيب‬
‫أو دعايات‪ ،‬بل يجب على العكس تصميمها بهدف تقليص انتشارها‪.‬‬

‫‪ . 6‬يجب أن يج ّنب تطوير أنظمة ّ‬


‫الذكاء االصطناعيّ خلق ال ّتبعيّة عبر تقنيات جاذبة‬
‫لالنتباه وعبر محاكاة‬
‫ّ‬ ‫ّ‬
‫الصّفات البشريّة بطرق من شأنها أن تسبب التباسًا بين أنظمة الذكاء االصطناعيّ والبشر‪.‬‬

‫‪9‬‬
‫والسر ّية‬
‫ّ‬ ‫مبدأ حماية الخصوص ّية‬
‫‪3‬‬
‫يجب حماية المساحات الحميميّة ال ّتي ال يخضع فيها األشخاص للمراقبة أو ال ّتقييم الرّ قميّ‬ ‫‪. 1‬‬ ‫يجب حماية الخصوص ّية‬
‫من‬
‫تدخل أنظمة‬‫والسر ّية من ّ‬
‫ّ‬
‫شخصيّة‪.‬‬ ‫تدخل أنظمة ّ‬
‫الذكاء االصطناعيّ وأنظمة ال ّتقاط وأرشفة البيانات ال ّ‬ ‫ّ‬
‫االصطناعي وأنظمة‬
‫ّ‬ ‫ّ‬
‫الذكاء‬
‫‪ . 2‬يجب حماية حميميّة األفكار والعواطف من استخدامات أنظمة ّ‬
‫الذكاء االصطناعيّ وأنظمة‬ ‫ال ّتقاط وأرشفة البيانات‬
‫شخصيّة القادرة على إلحاق الضّرر‪ ،‬السيما االستخدامات ال ّتي تهدف‬
‫ال ّتقاط وأرشفة البيانات ال ّ‬
‫شخص ّية‪.‬‬ ‫ال ّ‬
‫إلى إطالق أحكام أخالقيّة على خيارات األشخاص أو على خياراتهم الحياتيّة‪.‬‬

‫‪ . 3‬يجب أن تتاح لألشخاص بصفة دائمة إمكانيّة اختيار قطع اال ّتصال الرّ قميّ في حياتهم‬
‫الذكاء االصطناعيّ بشكل صريح خيار قطع اال ّتصال في فترات‬ ‫الخاصّة‪ ،‬ويجب أن تو ّفر أنظمة ّ‬
‫ّ‬
‫زمنيّة منتظمة‪ ،‬دون تشجيع األشخاص على البقاء متصلين‪.‬‬

‫‪ . 4‬يجب أن يتم ّتع األفراد بتحكم واسع في المعلومات المتعلقة بخياراتهم‪.‬‬


‫يجب أال تنشئ أنظمة ّ‬
‫الذكاء االصطناعيّ مالمح اختيارات فرديّة للتأثير على سلوك األفراد‬
‫المعنيين دون موافقتهم الحرة والمستنيرة‪.‬‬

‫‪ . 5‬يجب أن تضمن أنظمة ال ّتقاط وأرشفة البيانات ال ّ‬


‫شخصيّة سريّة البيانات وإخفاء‬
‫شخصيّة‪.‬‬‫هويّة ملفات ال ّتعريف ال ّ‬

‫شخصيّة‪ ،‬والسيما في ما يتعلق‬ ‫‪ . 6‬يجب أن يتاح لكل شخص ال ّتحكم الواسع في بياناته ال ّ‬
‫بجمعها واستخدامها ونشرها‪.‬‬
‫ً‬
‫مشروطا‬ ‫الذكاء االصطناعيّ والخدمات الرّ قميّة‬ ‫وال يمكن أن يكون استعمال األشخاص ألنظمة ّ‬
‫شخصيّة‪.‬‬‫بتخلّيهم عن ملكيّة بياناتهم ال ّ‬

‫‪ . 7‬يمكن لكل شخص أن يتبرع ببياناته ال ّ‬


‫شخصيّة للمؤسسات البحثيّة للمساهمة في ال ّتقدم‬
‫بالمعرفة‪.‬‬

‫‪ . 8‬يجب ضمان سالمة الهويّة ال ّ‬


‫شخصيّة‪.‬‬
‫الذكاء االصطناعيّ لمحاكاة مظهر أحد األشخاص‪ ،‬أو صوته أو أي‬ ‫يجب أال تستخدم أنظمة ّ‬
‫صفات فرديّة أخرى أو تغييرها بهدف اإلضرار بسمعته أو ال ّتالعب بأشخاص آخرين‪.‬‬

‫‪10‬‬
‫مبدأ ال ّتضامن‬
‫‪4‬‬
‫‪ . 1‬يجب أال تهدّد أنظمة ّ‬
‫الذكاء االصطناعيّ الحفاظ على العالقات اإلنسانيّة العاطفيّة‬ ‫يجب أن يتوافق تطوير‬
‫والمعنويّة‪ ،‬ويجب أن يقع تطويرها بغاية تعزيز هذه العالقات والحد من هشاشة األشخاص‬
‫االصطناعي مع‬
‫ّ‬ ‫أنظمة ّ‬
‫الذكاء‬
‫وعزلتهم‪.‬‬
‫الحفاظ على أواصر ال ّتضامن‬
‫‪ . 2‬يجب أن تطور أنظمة ّ‬
‫الذكاء االصطناعيّ بهدف ال ّتعاون مع البشر في المهام المع ّقدة‪،‬‬
‫بين األشخاص واألجيال‪.‬‬
‫تعزز العمل ال ّتعاوني بين البشر‪.‬‬
‫ويجب أن ّ‬

‫‪ . 3‬ينبغي أال يقع وضع أنظمة ّ‬


‫الذكاء االصطناعيّ الستبدال األشخاص في مهام تتطلب‬
‫عالقات إنسانيّة ذات جودة‪ ،‬بل ينبغي تطويرها لتيسير هذه العالقات‪.‬‬

‫‪ .4‬ينبغي أن تأخذ أنظمة الرّ عاية الصّحيّة ال ّتي تستخدم أنظمة ّ‬


‫الذكاء االصطناعيّ بعين‬
‫ّ‬
‫وموظفي الرّ عاية الصّحيّة بال ّنسبة للمرضى‪.‬‬ ‫االعتبار أهميّة العالقات مع األسرة‬

‫‪ . 5‬يجب أال يحث تطوير أنظمة ّ‬


‫الذكاء االصطناعيّ على تب ّني سلوك قاس تجاه الرّ وبوتات‬
‫المُصمّمة ل ُتماثل مظهر البشر أو الحيوانات وال ّتي تتصرّ ف مثلهم ظاهريا‪.‬‬

‫الذكاء االصطناعيّ من تحسين إدارة المخاطر وتهيئة ّ‬


‫الظروف‬ ‫‪ .6‬يجب أن تم ّكن أنظمة ّ‬
‫ّ‬
‫لبناء مجتمع أكثر فعاليّة يقوم على التشارك في تحمّل المخاطر الفرديّة والجماعيّة‪.‬‬

‫‪11‬‬
‫مبدأ المشاركة الدّ يمقراط ّية‬
‫‪5‬‬
‫الذكاء االصطناعيّ المعنيّة با ّتخاذ قرارات ّ‬
‫مؤثرة على حياة‬ ‫‪ . 1‬يجب أن يكون سير عمل أنظمة ّ‬ ‫ينبغي أن تفي أنظمة‬
‫األشخاص أو جودة حياتهم أو سمعتهم‪ ،‬مفهوما لمبتكريه‪.‬‬
‫االصطناعي بمعايير‬
‫ّ‬ ‫ّ‬
‫الذكاء‬
‫تؤثر على حياة‬‫الذكاء االصطناعيّ وال ّتي ّ‬
‫‪ . 2‬يجب أن تكون القرارات ال ّتي ت ّتخذها أنظمة ّ‬ ‫الوضوح والقدرة على‬
‫األشخاص أو جودة حياتهم أو سمعتهم معلّلة دائمًا بلغة يفهمها مستخدموها أو األشخاص الذين يعيشون‬ ‫ال ّتبرير والوصول‪ ،‬ويجب‬
‫عواقب استخدامها‪.‬‬
‫ّ‬
‫ويتمثل ال ّتعليل في تقديم أهم عوامل ومعايير أخذ القرار‪ ،‬ويجب أن يكون مشابها ً للتعليالت ال ّتي قد‬
‫أن تكون قابلة للخضوع‬
‫نطالب بها إنسانا يتخذ نفس نوعيّة القرار‪.‬‬ ‫للمراجعة وال ّنقاش‬
‫والمراقبة الدّ يمقراط ّية‪.‬‬
‫‪ . 3‬يجب أن يكون استخدام شفرة الخوارزميّات العامّة أو الخاصة‬
‫في متناول السّلطات العموميّة المختصة وأصحاب المصلحة المعنيين باألمر‬
‫وذلك بهدف ال ّتح ّقق والمراقبة‪.‬‬

‫‪ . 4‬يجب اإلبالغ عن اكتشاف أي أخطاء متعلّقة بتشغيل أنظمة ّ‬


‫الذكاء االصطناعيّ أو بأعراض‬
‫غير متوقعة أو غير مرغوب فيها أو بخروقات أمنيّة أو بتسريبات بيانات‪ ،‬إلى الجهات العموميّة‬
‫المختصة وأصحاب المصلحة المعنيين باألمر واألشخاص المتضررين من الوضع‪.‬‬

‫شفافيّة في القرارات العامّة‪ ،‬يجب أن تكون شفرة خوارزميّات اتخاذ القرارات‬‫‪ . 5‬وف ًقا لمتطلبات ال ّ‬
‫ال ّتي تستخدمها السّلطات العموميّة في متناول الجميع‪ ،‬باستثناء‬
‫تمثل خطرً ا جدّيا ذي نسبة احتمال مرتفعة في حالة إساءة استخدامها‪.‬‬‫الخوارزميّات ال ّتي ّ‬

‫‪ . 6‬في ما يخص أنظمة ّ‬


‫الذكاء االصطناعيّ العامّة ذات ال ّتأثير الهام على حياة المواطنين‪ ،‬فإنه‬
‫ّ‬
‫يجب أن تتوفر لهؤالء الفرصة والكفاءة لمناقشة المعايير االجتماعيّة ألنظمة الذكاء االصطناعيّ‬
‫وأهدافها وحدود استعمالها‪.‬‬

‫‪ . 7‬يجب أن نكون قادرين على ال ّتح ّقق في أي وقت من أن أنظمة ّ‬


‫الذكاء االصطناعيّ تقوم بما‬
‫بُرمجت من أجله وستخدم في نفس اإلطار‪.‬‬

‫‪ . 8‬يجب أن يكون أي مستخدم على علم بأي قرار م ّتخذ من قبل نظام ّ‬
‫الذكاء االصطناعيّ ‪ ،‬قد‬
‫يتعلّق به أو يمسّه‪.‬‬

‫‪ . 9‬يجب أن يتم ّكن أي مستخدم لخدمة تلجئ إلى استعمال عميل محادثات‪ ،‬من تحديد ما إذا كان‬
‫الذكاء االصطناعيّ أو مع شخص حقيقي‪ ،‬بسهولة‪.‬‬ ‫يتفاعل مع نظام ّ‬

‫‪ . 10‬يجب أن تظل البحوث في مجال ّ‬


‫الذكاء االصطناعيّ مفتوحة‬
‫وفي متناول الجميع‪.‬‬

‫‪12‬‬
‫مبدأ اإلنصاف‬
‫‪6‬‬
‫تعزز أو تعيد‬‫الذكاء االصطناعيّ وتدريبها على ّأل تخلق أو ّ‬ ‫‪ . 1‬وجب وضع أنظمة ّ‬ ‫يجب أن يساهم تطوير‬
‫ّ‬
‫إنتاج ال ّتمييز القائم على أساس االختالفات االجتماعيّة و الجنسيّة و العرقيّة والثقافيّة و الدّينيّة‬
‫االصطناعي‬
‫ّ‬ ‫أنظمة ّ‬
‫الذكاء‬
‫وغيرها‪.‬‬
‫واستخدامها في إنشاء‬
‫‪ . 2‬يجب أن يساهم تطوير أنظمة ّ‬
‫الذكاء االصطناعيّ في القضاء على عالقات الهيمنة‬
‫مجتمع عادل ومنصف‪.‬‬
‫القائمة على ال ّتفاوت في السّلطة أو الثروة أو المعرفة بين األشخاص والمجموعات‪.‬‬

‫تتمخض عن تطوير أنظمة ّ‬


‫الذكاء االصطناعيّ فوائد اقتصاديّة واجتماعيّة‬ ‫ّ‬ ‫‪ . 3‬يجب أن‬
‫للجميع وذلك عبر الح ّد من أوجه عدم المساواة والهشاشة االجتماعيّتين‪.‬‬

‫الذكاء االصطناعيّ مع ظروف العمل‬ ‫‪ . 4‬يجب أن يتوافق ال ّتطوير الصّناعي ألنظمة ّ‬


‫الالئقة‪ ،‬في ك ّل مرحلة من دورة حياة هذه األنظمة‪ ،‬بدءًا من استخراج الموارد الطبيعيّة إلى‬
‫إعادة تدويرها‪ ،‬ومرورا بمعالجة البيانات‪.‬‬

‫‪ . 5‬يجب اعتبار ال ّنشاط الرّ قميّ لمستخدمي أنظمة ّ‬


‫الذكاء االصطناعيّ والخدمات الرّ قميّة‬
‫شغال يساهم في عمل الخوارزميّات و إنتاج القيمة‪.‬‬

‫‪ .6‬يجب ضمان قدرة الجميع على الوصول إلى الموارد والمعرفة واألدوات الرّ قميّة‬
‫األساسيّة‪.‬‬

‫‪ . 7‬يمثل تطوير الخوارزميّات العامّة والبيانات المفتوحة‪ ،‬من أجل تدريبها وتشغيلها‪ ،‬هدفا‬
‫منصفا اجتماعيا وجب دعمه‪.‬‬

‫‪13‬‬
‫مبدأ دمج ال ّتنوع‬
‫‪7‬‬
‫‪ . 1‬يجب أال يؤدي تطوير نظام ّ‬
‫الذكاء االصطناعيّ واستخدامه إلى تجانس المجتمع من‬ ‫يجب أن يتوافق تطوير‬
‫خالل توحيد‬
‫االصطناعي‬
‫ّ‬ ‫نظام ّ‬
‫الذكاء‬
‫السّلوكيات واآلراء‪.‬‬
‫واستخدامه مع الحفاظ‬
‫‪ . 2‬يجب أن يَأخذ تطوير نظام ّ‬
‫الذكاء االصطناعيّ بعين االعتبار مختلف تعبيرات ال ّتنوع‬
‫على ال ّتنوع االجتماعي‬
‫االجتماعي ّ‬
‫والثقافي من اللحظة ال ّتي يتم فيها تصميم الخوارزميّات‪.‬‬ ‫وال ّثقافي‪ ،‬كما يجب أال يق ّيد‬
‫نطاق الخيارات الحيات ّية أو‬
‫‪ . 3‬يجب أن تتسم أوساط تطوير ّ‬
‫الذكاء االصطناعيّ بال ّ‬
‫شموليّة وأن تعكس تنوّ ع األفراد‬ ‫ال ّتجارب ال ّ‬
‫شخص ّية‪.‬‬
‫والجماعات في المجتمع‪ ،‬سوا ًء كان ذلك في مجال البحث أو الصّناعة‪.‬‬

‫الذكاء االصطناعيّ تج ّنب حصر األشخاص في ملف تعريف‬ ‫‪ . 4‬يجب على أنظمة ّ‬
‫ّ‬
‫المستخدم أو في فقاعة مصفيّة‪ ،‬كما يجب أال تقوم بتثبيت الهويّة الشخصيّة‬
‫عبر معالجة بيانات أنشطة األشخاص السّابقة وأال تقوم بتقليص خيارات ال ّتطوير ال ّ‬
‫شخصيّة‬
‫الخاصة بهم‪ ،‬السيما في مجال ال ّتعليم والعدالة واألعمال ال ّتجاريّة‪.‬‬

‫‪ . 5‬يجب أال تطوّ ر أنظمة ّ‬


‫الذكاء االصطناعيّ أو تستخدم بهدف الحد من حرّ يّة ال ّتعبير عن‬
‫ً‬
‫شرطا إلقامة مجتمع ديمقراطي‪.‬‬ ‫األفكار أو اآلراء وال ّتي يع ّد تنوعها‬

‫الذكاء االصطناعيّ ‪ ،‬لكل فئة من الخدمات‪ ،‬لمنع االحتكار‬‫‪ .6‬يجب تنويع عروض أنظمة ّ‬
‫الفعلي من ال ّتشكل وإلحاق الضّرر بالحريات الفرديّة‪.‬‬

‫‪14‬‬
‫مبدأ الحيطة‬
‫‪8‬‬
‫‪ . 1‬من الضّروري تطوير آليّات تراعي إمكانات االستخدام المزدوج‪ ،‬المفيدة والضّارة‪،‬‬ ‫يجب أن يتوخى كل ّ من‬
‫الذكاء االصطناعيّ (سواء كانت عامّة أو خاصة) ولتطوير أنظمة ّ‬
‫الذكاء االصطناعيّ ‪،‬‬ ‫ألبحاث ّ‬
‫يشارك في تطوير أنظمة‬
‫وذلك للحد من االستخدامات الضّارة‪.‬‬
‫االصطناعي الحيطة‬
‫ّ‬ ‫ّ‬
‫الذكاء‬
‫‪ . 2‬عندما ُتعرِّ ض إساءة استخدام نظام ّ‬
‫الذكاء االصطناعيّ ‪ ،‬بنسبة احتمال مرتفعة‪ ،‬السّالمة‬
‫من خالل استباق ال ّنتائج‬
‫أو الصّحة العامّة للخطر‪ ،‬فإنه من الحكمة تقليص انتشار خوارزميّاته والوصول المفتوح إليها‪.‬‬ ‫السلب ّية الستخدام أنظمة‬ ‫ّ‬
‫االصطناعي بقدر‬
‫ّ‬ ‫الذكاء‬ ‫ّ‬
‫‪ . 3‬يجب أن تفي أنظمة ّ‬
‫الذكاء االصطناعيّ بمعايير الموثوقيّة واألمان وال ّنزاهة‪ ،‬وأن‬ ‫اإلمكان‪ ،‬وا ّتخاذ ال ّتدابير‬
‫تخضع الختبارات ال تعرّ ض حياة األشخاص للخطر أو تضرّ بجودة حياتهم أو ّ‬
‫تؤثر سلبًا على‬
‫المناسبة لتالفيها‪.‬‬
‫سمعتهم أو سالمتهم ال ّنفسيّة وذلك قبل طرحها في السّوق‪ ،‬سواء كانت معروضة مقابل رسوم‬
‫أو مجا ًنا‪.‬‬
‫ويجب أن تكون هذه االختبارات مفتوحة أمام السّلطات العموميّة المختصة وأصحاب المصلحة‬
‫المعنيّين باألمر‪.‬‬

‫‪ . 4‬يجب أن يقي تطوير أنظمة ّ‬


‫الذكاء االصطناعيّ من مخاطر إساءة استخدام بيانات‬
‫المستخدم وحماية سالمة البيانات ال ّ‬
‫شخصيّة وسريّتها‪.‬‬

‫‪ . 5‬يجب أن تنشر األخطاء والخروقات المكتشفة في أنظمة ّ‬


‫الذكاء االصطناعيّ وأنظمة‬
‫شخصيّة عل ًنا‪ ،‬وعلى نطاق عالمي‪ ،‬من قبل المؤسسات العموميّة‬ ‫ال ّتقاط وأرشفة البيانات ال ّ‬
‫ّ‬ ‫ّ‬ ‫ِّ‬ ‫ُ‬ ‫ّ‬
‫شركات‪ ،‬وذلك في القطاعات التي تشكل خطرً ا كبيرً ا على السّالمة الشخصيّة والتنظيم‬ ‫وال ّ‬
‫االجتماعيّ ‪.‬‬

‫‪15‬‬
‫مبدأ المسؤول ّية‬
‫‪9‬‬
‫‪ . 1‬يتحمّل البشر وحدهم مسؤوليّة القرارات ال ّنابعة من ال ّتوصيات ال ّتي تقدمها أنظمة ّ‬
‫الذكاء‬ ‫يجب أال يساهم تطوير‬
‫االصطناعيّ واإلجراءات ال ّناتجة عنها‪.‬‬
‫االصطناعي‬
‫ّ‬ ‫أنظمة ّ‬
‫الذكاء‬
‫واستخدامها في إلغاء‬
‫‪ . 2‬يجب أن يعود القرار ال ّنهائي إلى اإلنسان في جميع المجاالت ال ّتي يتعيّن فيها أخذ قرار‬
‫من شأنه ال ّتأثير في حياة شخص ما أو في سمعته أو في جودة حياته‪ ،‬وينبغي أن يكون هذا‬
‫مسؤول ّية البشر عندما ينبغي‬
‫القرار حرً ا ومستنيرا‪.‬‬ ‫ا ّتخاذ قرار ما‪.‬‬

‫‪ . 3‬يجب أن يعود أي قرار بالقتل دائمًا للبشر وال يمكن أن تنقل مسؤوليّة اتخاذ هذا القرار‬
‫إلى أحد أنظمة ّ‬
‫الذكاء االصطناعيّ ‪.‬‬

‫الذكاء االصطناعيّ بارتكاب جريمة أو‬‫‪ . 4‬يتحمل األشخاص الذين يعطون اإلذن ألنظمة ّ‬
‫جنحة أو الذين يسمحون لها بارتكابها بسبب إهمالهم‪ ،‬مسؤوليّة هذه الجريمة أو الجنحة‪.‬‬

‫الذكاء االصطناعيّ في حصول ضرر أو تلف ما‪ ،‬ويثبت أنه‬ ‫‪ . 5‬عندما يتسبب نظام ّ‬
‫موثوق وأن استخدامه تم بطريقة طبيعيّة فإنه من غير المعقول إلقاء اللوم على األشخاص‬
‫المشاركين في تطويره أو استخدامه‪.‬‬

‫‪16‬‬
‫مبدأ ال ّتنمية المستدامة‬
‫‪10‬‬
‫‪ . 1‬يجب أن تهدف أجهزة أنظمة ّ‬
‫الذكاء االصطناعيّ وبنيتها ال ّتحتيّة الرّ قميّة وكل األشياء‬ ‫يجب تطوير أنظمة ّ‬
‫الذكاء‬
‫المتصلة ال ّتي تعتمد عليها‪ ،‬مثل مراكز البيانات‪ ،‬إلى تحقيق أكثر فعاليّة ممكنة في استخدام‬
‫االصطناعي واستخدامها‬
‫ّ‬
‫الطاقة والحد من انبعاثات الغازات الدّفيئة وذلك على مدار دورة حياتها‪.‬‬
‫بطريقة تضمن استدامة بيئ ّية‬
‫‪ . 2‬يجب أن تهدف أجهزة أنظمة ّ‬
‫الذكاء االصطناعيّ وبنيتها ال ّتحتيّة الرّ قميّة وكل األشياء‬
‫قو ّية لكوكب األرض‪.‬‬
‫الم ّتصلة ال ّتي تعتمد عليها‪ ،‬إلى توليد أقل قدر ممكن من النفايات الكهربائيّة واإللكترونيّة‪،‬‬
‫ّ‬
‫وتوفير قنوات للصيانة واإلصالح وإعادة ال ّتدوير وف ًقا لمبادئ االقتصاد الدّائري‪.‬‬

‫‪ . 3‬يجب أن تقلل أجهزة أنظمة ّ‬


‫الذكاء االصطناعيّ وبنيتها ال ّتحتيّة الرّ قميّة وكل األشياء‬
‫المتصلة ال ّتي تعتمد عليها من تأثيرنا في النظم اإليكولوجيّة والتنوع البيولوجي‪ ،‬في ك ّل مرحلة‬
‫ّ‬ ‫ّ‬
‫من مراحل دورة حياتها‪ ،‬بما في ذلك خالل استخراج الموارد الطبيعيّة ومراحل نفاذ فوائدها‪.‬‬

‫‪ . 4‬يجب أن تدعم ك ّل من الجهات الفاعلة العامّة والخاصة تطوير أنظمة ّ‬


‫الذكاء‬
‫االصطناعيّ المسؤولة بيئ ًّيا من أجل مكافحة إهدار الموارد الطبيعيّة والسّلع المنتجة‪ ،‬ووضع‬
‫سالسل إمداد ومبادالت تجاريّة مستدامة‪ ،‬إلى جانب الح ّد من ال ّتلوث على المستوى العالميّ ‪.‬‬

‫‪17‬‬
‫معجم شرح الكلمات‬

‫ال ّتدريب‬ ‫االستدامة البيئ ّية القو ّية‬


‫الذكاء االصطناعيّ من خاللها‬ ‫ال ّتدريب هو عمليّة التعلّم اآلليّ ال ّتي يُصمّم نظام ّ‬ ‫يشير مفهوم االستدامة البيئيّة القويّة إلى فكرة وجوب توافق وتيرة استهالك‬
‫الذكاء االصطناعيّ على جودة ال ّنموذج‬ ‫نموذجً ا من البيانات‪ .‬ويتوقف آداء نظام ّ‬ ‫الموارد الطبيعيّة واالنبعاث الملوّ ثة مع الحدود البيئيّة لكوكبنا ووتيرة تجدّد‬
‫الذي يتو ّقف بدوره على ك ّميّة وجودة البيانات المستخدمة أثناء ال ّتدريب‪.‬‬ ‫الموارد واألنظمة البيئة‪ ،‬إلى جانب استقرار المناخ‪ ،‬وذلك لكي تكون مستدامة‪.‬‬
‫وعلى عكس االستدامة الضّعيفة واألق ّل تطلّبًا‪ ،‬ال تسمح االستدامة القويّة‬
‫باستبدال خسارة الموارد الطبيعيّة من أجل رأس مال صناعي‪.‬‬
‫اآللي‬
‫ّ‬ ‫التع ّلم‬
‫التعلّم اآلليّ هو أحد فروع ّ‬
‫الذكاء االصطناعيّ الذي يهت ّم بتصميم خوارزميّات‬ ‫البيانات ال ّ‬
‫شخص ّية‬
‫تسمح لل ّنظام بالتعلّم من تلقاء نفسه‪ .‬من بين مختلف ال ّتقنيات‪ ،‬نستطيع تمييز‬
‫ثالثة أنواع رئيسيّة من التعلّم اآلليّ ‪:‬‬ ‫شخصيّة هي تلك ال ّتي تم ّكن من ال ّتعرف على شخص ما‪ ،‬سواء كان‬
‫البيانات ال ّ‬
‫ذلك بطريقة مباشرة أو غير مباشرة‪.‬‬
‫يتعلّم نظام ّ‬
‫الذكاء االصطناعيّ ال ّتنبؤ بالقيمة اعتمادا على بيانات‬ ‫> ‬
‫مدخلة خالل التعلّم الخاضع لإلشراف‪ .‬ويتطلّب ذلك وجود األزواج م ُْد َخل‪-‬قيمة‬
‫المشروحة خالل ال ّتدريب‪ .‬يمكن للنظام على سبيل المثال تعلّم ال ّتعرف على‬
‫شيء موجود في صورة‪.‬‬
‫البيانات المفتوحة‬
‫ّ‬
‫تمثل البيانات المفتوحة بيانات رقميّة يمكن للمستخدمين الوصول إليها بحرّ يّة‪،‬‬
‫الذكاء االصطناعيّ كيفيّة العثور على أوجه ال ّتشابه بين‬ ‫يتعلّم نظام ّ‬ ‫> ‬ ‫مثل معظم نتائج األبحاث المنشورة في ّ‬
‫الذكاء االصطناعيّ ‪.‬‬
‫ّ‬
‫البيانات غير المشروحة‪ ،‬خالل التعلم غير الخاضع لإلشراف‪ ،‬من أجل تقسيمها‬
‫على سبيل المثال إلى عدّة أقسام متجانسة‪ .‬هكذا‪ ،‬يمكن لل ّنظام ال ّتعرّ ف على‬
‫مجتمعات مستخدمي وسائل ال ّتواصل االجتماعيّ ‪.‬‬
‫ال ّتأثير االرتدادي‬
‫يتعلّم نظام ّ‬
‫الذكاء االصطناعيّ ال ّتح ّكم في بيئته خالل التعلّم المعزز‪،‬‬ ‫> ‬
‫ّ‬ ‫يمثل ال ّتأثير االرتدادي اآلليّة ال ّتي تؤدي من خاللها زيادة ال ّنجاعة ّ‬
‫الطاقيّة أو‬
‫بطريقة ترفع ألقصى ح ّد المكافأة ال ّتي يحصل عليها أثناء ال ّتدريب‪ .‬وتمثل هذه‬
‫ال ّتقنيّة ال ّتي تم ّكنت من خاللها أنظمة ّ‬
‫الذكاء االصطناعيّ من ال ّتغلّب على َب َش ٍر‬ ‫تحسّن األداء البيئي للمنتجات والمعدّات والخدمات إلى زيادة نسبيّة مرتفعة‬
‫شاشات‬ ‫في استهالكها‪ .‬على سبيل المثال‪ ،‬تنتج بشكل عام عن ازدياد حجم ال ّ‬
‫في لعبة ‪ Go‬أو لعبة الفيديو ‪.Dota2‬‬
‫وارتفاع عدد األجهزة اإللكترونيّة في البيوت وقطع مسافات أطول‪ ،‬سواء كان‬
‫ذلك بالسّيارة أو ّ‬
‫بالطائرة‪ ،‬زيادة في الضّغط على الموارد والبيئة‪.‬‬

‫التع ّلم العميق‬


‫يمثل التعلّم العميق أحد فروع التعلّم اآلليّ الذي يستخدم شبكات عصبيّة‬ ‫التبع ّية للمسار‬
‫اصطناعيّة على عدة مستويات‪ ،‬ويعتبر ال ّتقنيّة الكامنة وراء أحدث تطوّ رات‬
‫ّ‬ ‫تمثل التبعيّة للمسار آليّة اجتماعيّة يمكن من خاللها اتخاذ قرارات تكنولوجيّة‬ ‫ّ‬
‫الذكاء االصطناعيّ ‪.‬‬
‫أو تنظيميّة أو مؤسّساتيّة كانت تعتبر عقالنيّة يوما ما ولكنها أصبحت دون‬
‫المستوى األمثل اليوم‪ ،‬وال ّتي تستمرّ رغم ذلك في ال ّتأثير على صنع القرارات‪.‬‬
‫ويتم الحفاظ على هذه اآلليّة بسبب ال ّتحيّز المعرفي أو ألن تغييرها سيتطلّب‬
‫ال ّتنمية المستدامة‬ ‫للطرق الحضريّة‬ ‫تكلفة أو جهدا كبيرين للغاية وينطبق ذلك على البنيّة ال ّتحتيّة ّ‬
‫ُتشير ال ّتنمية المستدامة إلى تطوّ ر للمجتمعات البشريّة يتوافق مع قدرة ال ّنظم‬ ‫عندما تؤدّي إلى إنشاء برامج تحسين حركة المرور عوضا عن طرح تغيير‬
‫ّ‬
‫وتتمثل في‬ ‫الطبيعيّة على توفير الموارد والخدمات الالزمة لهاته المجتمعات‪.‬‬ ‫ينظم ال ّتنقل بشكل يخ ّفض من انبعاثات الكربون‪ .‬ويجب أن تكون هذه اآلليّة‬ ‫ّ‬
‫تنمية اقتصاديّة واجتماعيّة تلبي االحتياجات الحاليّة لألشخاص دون تعريض‬ ‫الذكاء االصطناعيّ في المشاريع االجتماعيّة إذ قد تعزز‬ ‫معروفة عند استخدام ّ‬
‫وجود األجيال المقبلة للخطر‪.‬‬ ‫بيانات ال ّتدريب في التعلّم الخاضع لإلشراف أحيا ًنا ال ّنماذج ال ّتنظيميّة القديمة‬
‫ال ّتي تكون جدواها قد أصبحت محل نقاش في الوقت الرّ اهن‪.‬‬

‫‪18‬‬
‫أنظمة ال ّتقاط وأرشفة البيانات ال ّ‬
‫شخص ّية (‪)DAAS‬‬ ‫الخوارزم ّيات‬
‫ّ‬
‫يمثل نظام ال ّتقاط وأرشفة البيانات ال ّ‬
‫شخصيّة ك ّل نظام حسابي يمكنه جمع‬ ‫تمثل الخوارزميّة طريقة لح ّل المشكالت عبر سلسلة محدودة وغير مبهمة من‬ ‫ّ‬
‫البيانات وتسجيلها‪ .‬وقد ُتستخدم هذه البيانات لتدريب أنظمة ّ‬
‫الذكاء االصطناعيّ ‪،‬‬ ‫الذكاء االصطناعيّ ّ‬
‫تمثل الخوارزميّة‬ ‫العمليات‪ .‬وبشكل أكثر تحدي ًدا‪ ،‬في مجال ّ‬
‫أو كمعايير التخاذ القرار‬ ‫ّ‬
‫سلسلة العمليات المطبقة على بيانات اإلدخال لتحقيق النتيجة المرجوة‪.‬‬

‫قمي‬ ‫‪.‬انقطاع اال ّتصال ّ‬


‫الر ّ‬ ‫االصطناعي‬
‫ّ‬ ‫ّ‬
‫الذكاء‬
‫يُشير انقطاع اال ّتصال الرّ قميّ إلى ال ّتوقف المؤ ّقت أو الدّائم للفرد عن ممارسته‬ ‫الذكاء االصطناعيّ إلى سلسلة ال ّتقنيات ال ّتي تم ّكن اآللة من محاكاة ّ‬
‫الذكاء‬ ‫يشير ّ‬
‫للنشاط الرقمي‪.‬‬ ‫ّ‬ ‫ّ‬
‫البشري‪ ،‬وذلك من أجل التعلم والتنبؤ واتخاذ القرارات وإدراك البيئة المحيطة‬
‫الذكاء االصطناعيّ على البيانات الرّ قميّة عندما‬ ‫بها‪ ،‬على سبيل المثال‪ .‬ويطبّق ّ‬
‫يتعلق األمر بالنظم المعلوماتيّة‪.‬‬
‫روبوت الدّردشة (‪)Chatbot‬‬
‫روبوت الدّردشة هو نظام يستخدم ّ‬
‫الذكاء االصطناعيّ ويمكنه ال ّتحاور مع‬ ‫الرقم ّية‬
‫المشاعات ّ‬
‫مستخدميه بلغة طبيعيّة‪.‬‬
‫ّ‬
‫تتمثل المشاعات الرّ قميّة في ال ّتطبيقات أو البيانات ال ّتي تنتجها أحد المجتمعات‪.‬‬
‫ويمكن مشاركتها بسهولة‪ ،‬كما أنها ال تتلف عند استخدامها‪ ،‬عكس السّلع‬
‫شبكات ال ّتنافس اإلنتاجي (‪)GAN‬‬ ‫تمثل البرامج مفتوحة المصدر‪-‬‬ ‫الماديّة‪ .‬لذلك‪ ،‬وعلى عكس البرامج االحتكاريّة‪ّ ،‬‬
‫ا ألن شفرة‬ ‫نظرً‬ ‫وال ّتي غالبًا ما تنتج عن ال ّتعاون بين المبرمجين‪ -‬مشاعا رقميا‬
‫في شبكات ال ّتنافس اإلنتاجيّ تتنافس شبكتان متعارضتان الستحداث صورة‪.‬‬ ‫برمجيتها مفتوحة‪ ،‬بما معناه أنها متاحة للجميع‪.‬‬
‫ويمكن على سبيل المثال أن يتم استخدامهما إلنشاء صورة أو تسجيل أو فيديو‬
‫ليبدو شبه حقيقي لإلنسان‪.‬‬
‫المصداق ّية‬
‫فقاعة ال ّتصف ّية‬ ‫الذكاء االصطناعيّ موثوقا به عندما يؤدي المهام ال ّتي صمّم من‬ ‫يعتبر نظام ّ‬
‫ّ‬ ‫ّ‬ ‫ّ‬
‫أجلها بالطريقة المرجوّ ة‪ .‬وتمثل المصداقيّة احتماليّة النجاح التي تتراوح بين‬
‫يشير تعبير فقاعة ال ّتصفيّة إلى المعلومات «المصفاة» ال ّتي تصل الفرد عبر‬ ‫‪ %51‬و‪ ،%100‬وهذا يعني أنها نسبة أعلى من أن تكون عشوائيّة‪ .‬وكلما كان‬
‫اإلنترنت‪ .‬وتوفر في الواقع مختلف الخدمات على غرار ال ّ‬
‫شبكات االجتماعيّة‬ ‫ال ّنظام موثوقا به‪ ،‬كلما كان باإلمكان ال ّتنبّؤ بسلوكه‪.‬‬
‫أو محركات البحث نتائج مخصّصة لمستخدميها‪ .‬ويمكن أن يؤدي هذا إلى عزل‬
‫األفراد (وضعهم داخل «فقاعات») بما أنهم يفقدون القدرة على الوصول إلى‬
‫معلومات مشتركة‪.‬‬ ‫الرقم ّية‬
‫المعرفة ّ‬
‫ُتشير المعرفة الرّ قميّة للفرد إلى قدرته على ال ّتعامل مع المعلومات وفهمها‬
‫مبررات القرار‬
‫ّ‬ ‫ودمجها وإبالغها وتقييمها وخلقها والوصول إليها بصفة آمنة وبشكل مناسب‬
‫وذلك باستخدام األدوات الرّ قميّة وال ّتقنيات ال ّ‬
‫شبكيّة للمشاركة في الحياة‬
‫الذكاء االصطناعيّ عندما تكون هناك أسباب هامّة‬ ‫يمكن تبرير قرار اتخذه نظام ّ‬ ‫االقتصاديّة واالجتماعيّة‪.‬‬
‫تح ّفزه وعندما تكون هذه األسباب قابلة للتبليغ بلغة طبيعيّة‪.‬‬
‫ّ‬

‫المفهوم ّية‬
‫االصطناعي‬
‫ّ‬ ‫نظام ّ‬
‫الذكاء‬
‫الذكاء االصطناعيّ مفهوما عندما يكون فهم كيفيّة سير عمله‪ ،‬أي‬‫يكون نظام ّ‬
‫الذكاء االصطناعيّ أي نظام حسابي يستخدم خوارزميّات ّ‬
‫الذكاء‬ ‫يمثل نظام ّ‬ ‫ّ‬
‫نموذجه الحسابي والعمليات التي تحدده ممكنا ألي إنسان لديه المعرفة الالزمة‬
‫ً‬ ‫ً‬
‫االصطناعيّ ‪ ،‬سوا ًء كان ذلك برنامجً ا أو جسما متصال أو روبوتا‪.‬‬ ‫لذلك‪.‬‬

‫قمي‬ ‫ال ّنشاط ّ‬


‫الر ّ‬
‫نعني بال ّنشاط الرّ قميّ مجموعة اإلجراءات ال ّتي ي ّتخذها الفرد في بيئة رقميّة‪،‬‬
‫سواء كان ذلك على جهاز كمبيوتر أو هاتف أو أي شيء آخر متصل‪.‬‬

‫‪19‬‬
‫االعتمادات‬

‫‪ Pascale Lehoux‬أستاذة قارّ ة في مدرسة الصّحة العامّة بجامعة‬ ‫إن صياغة إعالن مونتلاير لل ّتنمية المسؤولة ّ‬
‫للذكاء‬
‫مونتلاير (‪ ،)ESPUM‬متحصلة على سدّة جامعة مونتلاير لالبتكار المسؤول‬
‫االصطناعيّ هو نتاج عمل فريق علمي متعدد‬
‫في الصّحة‪.‬‬
‫االختصاصات ومن جامعات مختلفة‪ ،‬يعتمد على مبدأ‬
‫‪ Jocelyn Maclure‬أستاذ قارّ في كليّة الفلسفة بجامعة الفال ورئيس‬ ‫االستشارة المواطنيّة وال ّتشاور مع الخبراء واألطراف‬
‫لجنة األخالقيات في العلوم وال ّتكنولوجيا (‪.)CEST‬‬ ‫الذكاء االصطناعيّ ‪.‬‬‫الفاعلة في تطوير ّ‬

‫‪ Marie Martel‬أستاذة مساعدة في مدرسة علوم المكتبات والمعلومات‬ ‫‪ Christophe Abrassart‬أستاذ مبرّ ز في كليّة ال ّتصميم والمدير‬
‫بجامعة مونتلاير‪.‬‬ ‫المشارك لمختبر ‪ Lab Ville Prospective‬ال ّتابع لكليّة ال ّتخطيط بجامعة‬
‫مونتلاير وعضو في مركز البحث في األخالقيات (‪.)CRÉ‬‬
‫‪ Joëlle Pineau‬أستاذة مبرّ زة في مدرسة علوم الحاسوب بجامعة‬
‫ماكجيل ومديرة مختبر ‪ IA‬ال ّتابع لفيسبوك والمديرة المشاركة لمختبر ال ّتفكير‬ ‫‪ Yoshua Bengio‬أستاذ قارّ في قسم اإلعالميّة وبحوث العمليات‬
‫والتعلّم (‪.)Laboratoire Reasoning and Learning‬‬ ‫شؤون العلميّة في ‪ MILA‬و‬ ‫(‪ )DIRO‬ال ّتابع لجامعة مونتلاير ومدير ال ّ‬
‫‪IVADO‬‬
‫‪ Peter Railton‬أستاذ جامعي متميز حاصل على أستاذيّة ‪Gregory‬‬
‫‪S. Kavka‬؛ ‪ John Stephenson Perrin‬أستاذ؛ ‪Arthur F.‬‬ ‫‪ Guillaume Chicoisne‬مدير البرامج العلميّة في ‪IVADO‬‬
‫‪ Thurnau‬أستاذ بقسم الفلسفة بجامعة ميشيجان وعضو األكاديميّة األمريكيّة‬
‫للفنون والعلوم‪.‬‬ ‫‪ Nathalie de Marcellis-Warin‬أستاذة قارّ ة في جامعة‬
‫بوليتكنيك مونتلاير (‪ )Polytechnique Montréal‬والرّ ئيسة والمديرة‬
‫‪ Catherine Régis‬أستاذة مبرّ زة في كليّة الحقوق بجامعة مونتلاير‬ ‫ال ّتنفيذيّة لمركز البحوث في تحليل المنظمات المشترك بين الجامعات‬
‫ومتحصلة على سدّة بحث كنديّة للثقافة ال ّتعاونيّة في القانون والسّياسات الصّحيّة‬ ‫(‪.)CIRANO‬‬
‫وباحثة قارّ ة في مركز البحوث في القانون العام (‪.)CRDP‬‬
‫‪ Marc-Antoine Dilhac‬أستاذ مبرّ ز في قسم الفلسفة بجامعة‬
‫‪ Christine Tappolet‬أستاذة قارّ ة في قسم الفلسفة ال ّتابع لجامعة‬ ‫مونتلاير ومدير محور األخالقيات والسّياسة في مركز البحث في األخالقيات‬
‫مونتلاير ومديرة مركز البحث في األخالقيات (‪ )CRÉ‬ومسؤولة عن مجموعة‬ ‫شباب (‪Institut Philosophie‬‬ ‫(‪ )CRÉ‬ومدير معهد الفلسفة والمواطنة وال ّ‬
‫العمل المشتركة بين الجامعات والمعنيّة بالحياة الطبيعيّة‪.‬‬ ‫‪ )Citoyenneté Jeunesse‬وهو يشغل سدّة بحث كنديّة حول األخالقيات‬
‫العامّة وال ّنظريّة السّياسيّة‪.‬‬
‫‪ Nathalie Voarino‬المنسقة العلميّة للوثيقة وطالبة الدّكتوراه في العلوم‬
‫الطبيّة الحيويّة إختصاص أخالقيات علم البيولوجيا في جامعة مونتلاير‪.‬‬ ‫‪ Sébastien Gambs‬أستاذ علوم الحاسوب بجامعة كيبيك في مونتلاير‬
‫وهو يشغل كرسي البحث الكندي في ال ّتحليل المحترم للحياة الخاصة وأخالقيات‬
‫البيانات الضّخمة‪.‬‬

‫‪ Vincent Gautrais‬أستاذ قارّ في كليّة الحقوق بجامعة مونتلاير ومدير‬


‫مركز أبحاث في القانون العام (‪.)CRDP‬‬

‫‪ Martin Gibert‬مستشار األخالقيات في ‪ IVADO‬وباحث في مركز‬


‫البحث في األخالقيات (‪.)CRÉ‬‬

‫‪ Lyse Langlois‬أستاذة مبرّ زة ونائبة عميد كليّة العلوم االجتماعيّة بقسم‬


‫العالقات الصّناعيّة ال ّتابع لجامعة الفال ومديرة معهد األخالقيات ال ّتطبيقيّة‬
‫(‪ ،)IDÉA‬وباحثة في مجال العولمة والعمل في مركز البحوث المشتركة بين‬
‫الجامعات (‪.)CRIMT‬‬

‫‪ François Laviolette‬أستاذ قارّ في قسم اإلعالميّة وهندسة‬


‫البرمجيات بجامعة الفال‪ ،‬ومدير مركز أبحاث البيانات الكثيفة (‪.)CRDM‬‬

‫‪1‬‬
‫شركاؤنا‬

‫‪2‬‬
montrealdeclaration-responsibleai.com

You might also like