Professional Documents
Culture Documents
آیا هوش مصنوعی هم می
آیا هوش مصنوعی هم می
كه قابليت يادگيرى زبان را نيز دارا هستند ،میتوانند AIنتيجۀ تحقيقات تيمى از پژوهشگران نشان داد كه سيستمهاى مبتنی بر
تعصبات نژادپرستانه و جنسيتى را نيز از انسانها ياد بگيرند! به طور مثال ،اين سيستمها مىتوانند به طور خودكار واژگانی همچون
«خانهدارى» و «خانواده» را به زنان نسبت داده يا صفات و ويژگىهاى برتر را براى توصيف اسامى كه بيشتر ميان سفيدپوستان
رايج است استفاده كنند (يا عكس اين عمل را براى اسامى رايج سياهپوستان استفاده كنند).
ما انسانها همواره از سيستمهاى مدرن و تكنولوژى روز انتظارات زيادى داريم؛ به طوری که مىخواهيم مسئوليت سنگين شبيهسازى
تفكرات و عقايد خودمان را نیز به آنها محول كنيم و دوست داریم تا دقيقا ً مانند ما فكر كنند! به طور مثال ،امروزه سيستمهاى مجهز
به تكنولوژى# يادگيرى ماشينى اين قابليت را دارند كه به مكالمات Eاطرافيان خود گوش داده و زبان آنها را فرا گيرند که در نگاه اول
چنين چيزى بسيار فوقالعاده به نظر مىرسد تا اينكه متوجه شويم اين سيستمها همانقدر كه خِصلتهاى خوب رفتارى و زبانى ما را
.فرا مىگيرند ،خِصلتها و عادتهاى ب ِد رفتارى و گفتارى از جمله تبعيض نژادى و جنسيتى را نيز ياد مىگيرند
طى چند قرن گذشته ،عبارات و رفتارهاى نژادپرستانه آنقدر ميان مردم رايج شده كه براى خيلىها تبديل به عضو جدايىناپذيرى از
نيز خواهد افتاد! در AIمغزشان شده است و این در حالی است که متٔاسفانه اين اتفاق دقيقا ً به همين شكل براى سيستمهاى مبتنی بر
حقیقت ،رباتهای هوش مصنوعىهاى کنونی قادرند پيچيدهترين رفتارهاى ما را مورد تجزيهوتحليل قرار دهند و از آنجايى كه هدف
اصلى اين سيستمها تقليد دقيق نگرش ،رفتار و زبان انسانها است ،رفتارهاى احتماالً نژادپرستان ٔه ما را نيز به طور خودكار فرا
که در تهیۀ این گزارش همکاری کرده ،در این رابطه Bathمتخصص کامپیوتر در دانشگاه . Joanna Bryson،خواهند گرفت
:میگوید
خیلی از مردم معتقدن که هوش مصنوعی داره سمتوسویی متعصبانه به خودش میگیره اما به هیچ وجه اینطور نیست .این حقیقت
!به ما نشون میده که ما آدمها تعصبات بیجایی داریم و هوش مصنوعی داره اونها رو از ما یاد میگیره
جاسازی( Word Embedding این تحقیق شامل بررسی یک مدل خاص از# هوش مصنوعی است که از یک روش آماری به نام
برای تشخیص عبارات گوناگون استفاده میکند .محققان یک سناریوی از پیش تعیین شده در نظر گرفتند که مشابه این آزمایش) کلمات
.قبالً انجام شده بود IAT یا به اختصار Implicit Association Testاز طرف انجمن
در این آزمایش کاربران هدف باید روی تصاویر مختلف برچسب میزدند (مثالً تصویر یک فرد سفیدپوست را خوشایند و یک
هر کلمه توسط یک بردار حامل به عدد Word Embeddingسیاهپوست را به عنوان ناخوشایند تگ میکردند یا بالعکس ).در سیستم
خاصی مرتبط میشود که در نهایت مجموعهای متشکل از تعداد زیادی واژه برای سیستم ایجاد میشود که در آن واژههایی همچون
اسامی انواع گلها در یک بازۀ عددی بسیار نزدیک با واژهای مثل زیبا یا خوب قرار میگیرد و عکس این اتفاق برای اسمهایی
همچون نامهای گونههای حشرات و امثال آن میافتد (یا مثالً واژۀ مرد یا مذکر را به واژههای مهندسی و ریاضیات یا زن و مٔونث را
با واژههایی چون هنر ،فعالیتهای انساندوستانه و خانه ربط میدهد).
به همین شکل ،اسامی رایج سفیدپوستان با واژههای خوب و مطلوب و اسامی سیاهپوستان با واژههایی زشت و ناپسند مرتبط میشود و
این در حالی است که این سیستم از بیش از 840میلیارد واژه تشکیل شده است که آنها را از منابع مختلفی در وب به دست آورده
است .در یک کالم ،طبق نتیجۀ به دست آمده از تحقیقات صورت گرفته ،این سیستم میتواند عبارتهای نژادپرستانه را به طور دقیق
:گفت Guardianمحقق دانشگاه آکسفورد ،در مصاحبهای با مجلۀ Sandra Watcher،ها فرا گیرد! در این میاناز انسان
وقتی از وجود چنین واژههایی در سیستم مطلع شدم ،به هیچوجه تعجب نکردم چون تمام اطالعاتی که از پیش در اختیار این سیستمها
.قرار گرفته آکنده از واژهها و عبارات نژادپرستانه و تبعیضگرایانه هستن
اما وجود واژههای نژادپرستانه و متعصبانه در الگوریتمهای کامپیوتری ،در مقایسه با انسانهایی که به اختیار خود این واژههای را
به کار میبرند یا افراد دروغگویی که برخالف آنچه که باور دارند عمل میکنند آنقدر ها هم بد نیست چرا که این سیستمها هنوز
آنقدرها با هوش نشدهاند که َسرخود تصمیم بگیرند و دست به عمل زنند (اما در عین حال ،چنین چیزی در آیندهای نهچندان دور نیز
محتمل است!)
به نظر میرسد که در حال حاضر وقت این باشد تا به جای اینکه توانایی یادگیری سیستمها را کاهش دهیم و شاهد عقبگرد در
تکنولوژی باشیم ،دیدگاههای نژادپرستانه و تعصبات بیجای خودمان را کم کنیم که اگر این اتفاق صورت نگیرد ،تنها راه گریز این
در همین راستا ،کمپانیهایی همچون( است که سیستمهایی با توانایی تشخیص تصمیمهای متعصبانه و اقدام علیه آنها بسازیم
ابداع کنند که AIمایکروسافت Eو فیسوک درصدد هستند تا سیستمهایی برای جلوگیری تعصبات نژادپرستانه در سیستمهای مبتنی بر
تالس مایکروسافت و فیسبوک برای شناسایی Unbiased AI:برای کسب اطالعات بیشتر پیرامون این مقوله ،میتوانید به مقال ٔه
).الگوریتمهای متعصبان ٔه هوش مصنوعی مراجعه نمایید