You are on page 1of 13

‫مدل‌های عالقه باز‪ ،‬قابل بررسی و قابل توضیح برای شفاف‬

‫توصیه‬

‫دانشگاه دویسبورگ‪-‬اسن‪ ،‬آلمان ‪MOUADH GUESMI،‬‬


‫محمد امین کتی‪ ،‬دانشگاه دویسبورگ‪-‬اسن‪ ،‬آلمان‬
‫دانشگاه دویسبورگ‪-‬اسن‪ ،‬آلمان ‪YIQI SUN،‬‬
‫شادی زومور‪ ،‬دانشگاه دویسبورگ‪-‬اسن‪ ،‬آلمان‬
‫دانشگاه دویسبورگ‪-‬اسن‪ ،‬آلمان ‪FANGZHENG JI،‬‬
‫دانشگاه ‪ LAURA VORGERD،‬دانشگاه ملی علوم و فناوری‪ ،‬پاکستان ‪ARHAM MUSLIM،‬‬
‫آلمان ‪Duisburg-Essen،‬‬
‫آلمان ‪ Duisburg-Essen،‬دانشگاه ‪SHOEB AHMED JOARDER،‬‬
‫افزایش قابلیت توضیح در سیستم های توصیه گر در سال های اخیر توجه بیشتری را به خود جلب کرده است‪ .‬در این مقاله‪ ،‬ما‬
‫به دو جنبه ای می پردازیم که در تحقیقات توصیه های قابل توضیح کمتر مورد بررسی قرار می گیرند‪ ،‬یعنی ارائه توضیحاتی‬
‫که بر ورودی ( به عنوان مثال مدل کاربر) متمرکز است و ارائه توضیحات شخصی با سطوح مختلف جزئیات‪ .‬برای رفع این‬
‫را پیشنهاد می‌کنیم که هدف آن باز کردن‪ ،‬بررسی دقیق و توضیح )‪ (RIMA‬شکاف‪ ،‬ما برنامه شفاف توصیه و مدل‌سازی عالقه‬
‫مدل عالقه کاربر بر اساس سه سطح جزئیات است‪ .‬نتایج یک مطالعه اولیه مبتنی بر مصاحبه کاربر مزایای بالقوه را از نظر‬
‫‪ .‬شفافیت‪ ،‬قابلیت بررسی و رضایت کاربر از سیستم توصیه‌کننده قابل توضیح نشان داد‬

‫سازماندهی سیستم های کامپیوتری → سیستم های جاسازی شده‪ .‬افزونگی ؛ رباتیک؛ • شبکه ها → قابلیت • ‪ CCS:‬مفاهیم‬
‫‪.‬اطمینان شبکه‬

‫کلمات و عبارات کلیدی اضافی‪ :‬هوش مصنوعی قابل توضیح‪ ،‬سیستم های توصیه کننده قابل توضیح‪ ،‬توضیح پذیری‪،‬‬
‫شفافیت‪ ،‬قابلیت بررسی‪ ،‬مدل کاربر‬

‫‪ ACM:‬فرمت مرجع‬
‫مواد گوسمی‪ ،‬محمد امین چاتی‪ ،‬ییقی سان‪ ،‬شادی زومور‪ ،‬فانگ ژن جی‪ ،‬آرهام مسلم‪ ،‬لورا ورگرد و شوب احمد‬
‫تا ‪ 17‬آوریل‪ IUI '21: ACM IUI، 13 ، 2021 ،‬جواردر‪ .2021 .‬مدل‌های عالقه باز‪ ،‬قابل بررسی و قابل توضیح برای توصیه شفاف‪ .‬در‬
‫‪. https://doi.org/10.1145/nnnnnn.nnnnnn‬نیویورک‪ ،‬نیویورک‪ ،‬ایاالت متحده آمریکا‪ 10 ،‬صفحه ‪، TX. ACM،‬ایستگاه کالج‬

‫‪1‬‬ ‫معرفی‬
‫توضیحات در سیستم های توصیه گر در چند سال اخیر اهمیت فزاینده ای پیدا کرده است‪ .‬توضیح را می توان به عنوان بخشی‬
‫از اطالعات ارائه شده به کاربر برای افشای دلیل پشت یک توصیه در نظر گرفت [ ‪ .]13‬توضیحات می تواند تأثیر زیادی بر‬
‫نحوه پاسخ کاربران به توصیه ها داشته باشد [‪ .]3‬تحقیقات اخیر بر ابعاد مختلف توصیه های قابل توضیح تمرکز کرده و‬
‫‪،‬چندین طبقه بندی را پیشنهاد کرده است [‪ .]27 ،26 ،23 ،11‬برای مثال‬
‫گوسمی و همکاران [‪ ]11‬سیستم های توصیه گر قابل توضیح را بر اساس چهار بعد‪ ،‬یعنی هدف توضیح طبقه بندی کرد‬
‫تمرکز توضیح (ورودی‪ :‬کاربر ‪)،‬شفافیت‪ ،‬اثربخشی‪ ،‬کارایی‪ ،‬بررسی پذیری‪ ،‬متقاعدسازی‪ ،‬اعتماد‪ ،‬رضایت(‬
‫‪1‬‬
‫کالج ‪IUI '21، 13‬‬ ‫‪، TX‬تا ‪ 17‬آوریل‪ ،2021 ،‬ایستگاه‬ ‫همکاران ‪Guesmi‬‬ ‫‪.‬و‬

‫اجازه ایجاد نسخه‌های دیجیتال یا چاپی تمام یا بخشی از این اثر برای استفاده شخصی یا کالسی بدون پرداخت هزینه‌ای اعطا‬
‫می‌شود‪ ،‬مشروط بر اینکه کپی برای سود یا مزیت تجاری تولید یا توزیع نشده باشد و کپی‌ها حاوی این اطالعیه و نقل قول‬
‫است باید رعایت شود‪ ACM .‬کامل در صفحه اول باشند‪ . .‬حق چاپ برای اجزای این اثر که متعلق به افراد دیگری غیر از‬
‫چکیده با اعتبار مجاز است‪ .‬برای کپی کردن‪ ،‬یا بازنشر‪ ،‬برای پست کردن در سرورها یا توزیع مجدد در فهرست ها‪ ،‬نیاز به‬
‫‪ permissions@acm.org.‬مجوز خاص و‪/‬یا هزینه دارد‪ .‬درخواست مجوز از‬
‫‪.‬انجمن ماشین‌های محاسباتی ‪© 2021‬‬

‫ارسال شد ‪ ACM‬نسخه خطی به‬


‫مدل‪ ،‬فرآیند‪ :‬الگوریتم‪ ،‬خروجی‪ :‬موارد توصیه شده)‪ ،‬نوع توضیح (مبتنی بر مشارکت‪ ،‬محتوا محور‪ ،‬اجتماعی‪ ،‬ترکیبی) و‬
‫نمایش توضیح (متن‪ ،‬بصری)‪ .‬عالوه بر این چهار بعد‪ ،‬دیگر انتخاب‌های طراحی ضروری باید در نظر گرفته شوند‪ ،‬مانند‬
‫‪.‬دامنه و سطح جزئیات توضیح [‪]22‬‬
‫تمرکز یک توضیح به بخشی اشاره دارد که یک سیستم توصیه گر سعی در توضیح آن دارد‪ ،‬یعنی ورودی‪ ،‬فرآیند یا‬
‫خروجی توصیه‪ .‬توصیه قابل توضیح با تمرکز بر فرآیند توصیه‪ ،‬درک نحوه عملکرد الگوریتم است‪ .‬توضیح پذیری خروجی‬
‫توصیه بر موارد توصیه شده متمرکز است‪ .‬این رویکرد فرآیند توصیه را به عنوان یک جعبه سیاه در نظر می گیرد و سعی‬
‫می کند دلیل ارائه توصیه را توجیه کند‪ .‬توضیح پذیری ورودی توصیه بر مدل کاربر متمرکز است‪ .‬این رویکرد توصیفی را‬
‫ارائه می‌کند که درک سیستم از ترجیحات کاربر را خالصه می‌کند و به کاربر اجازه می‌دهد این خالصه را موشکافی کند و‬
‫در نتیجه مستقیما ً مدل کاربر خود را اصالح کند [ ‪ .]3‬در مقایسه با قابلیت توضیح خروجی توصیه یا فرآیند توصیه‪ ،‬تمرکز بر‬
‫‪ .‬ورودی توصیه ( یعنی مدل کاربر) در تحقیقات توصیه‌های قابل توضیح کمتر مورد بررسی قرار گرفته است [‪]9 ،3‬‬
‫یکی دیگر از انتخاب های مهم طراحی در توصیه های قابل توضیح‪ ،‬به سطح جزئیات توضیحی مربوط می شود که باید در‬
‫نشان داد که برای کاربران یا )‪ (XAI‬اختیار کاربر نهایی قرار گیرد‪ .‬نتایج تحقیقات قبلی در مورد هوش مصنوعی قابل توضیح‬
‫گروه های کاربری خاص‪ ،‬توضیح دقیق به طور خودکار منجر به اعتماد و رضایت بیشتر کاربر نمی شود زیرا ارائه‬
‫توضیحات اضافی تالش شناختی را افزایش می دهد و کاربران مختلف نیازهای متفاوتی برای توضیح دارند‪.]28 ،19 ،16[ .‬‬
‫مطالعات اخیر در مورد توصیه‌های قابل توضیح نشان داد که ویژگی‌های شخصی بر درک توضیحات تأثیر دارد و توجه به‬
‫و همکاران‪ ]20[ .‬پیشنهاد می کند ‪، Millecamp‬ویژگی‌های شخصی هنگام طراحی توضیحات مهم است [‪ .]20 ،18‬در نتیجه‬
‫که (‪ )1‬کاربران باید بتوانند انتخاب کنند که آیا می خواهند توضیحات را ببینند یا نه و (‪ )2‬اجزای توضیح باید به اندازه کافی‬
‫انعطاف پذیر باشند تا سطوح مختلفی از جزئیات را بسته به ترجیحات کاربران ارائه دهند‪ .‬راه‌حل‌های بتن پیروی از این‬
‫‪ .‬دستورالعمل طراحی دوم‪ ،‬با این حال‪ ،‬هنوز فاقد تحقیقات توصیه‌شده قابل توضیح هستند‬
‫را اجرا کردیم که هدف آن دستیابی به )‪ (RIMA‬در این مقاله‪ ،‬ما یک برنامه کاربردی مدل‌سازی پیشنهاد و عالقه شفاف‬
‫شفافیت با باز کردن‪ ،‬بررسی دقیق و توضیح مدل عالقه کاربر بر اساس سه سطح مختلف جزئیات است‪ .‬مشارکت‌های ما‬
‫عبارتند از‪ )1( :‬یک رویکرد توصیه‌های قابل توضیح انسان محور که توسط مدل‌های عالقه باز‪ ،‬قابل بررسی و قابل توضیح‬
‫هدایت می‌شود و (‪ )2‬تغییر از یک رویکرد یک‌اندازه به یک رویکرد شخصی‌شده به توصیه‌های قابل توضیح با سطوح‬
‫‪.‬مختلف جزئیات برای پاسخگویی به نیازها و ترجیحات کاربران مختلف‬

‫‪2‬‬
‫مدل‌های عالقه باز‪ ،‬قابل بررسی و قابل توضیح برای توصیه شفاف‬ ‫استیشن ‪IUI '21، 13‬‬ ‫‪، TX‬تا ‪ 17‬آوریل‪ ،2021 ،‬کالج‬

‫را مورد ‪ RIMA‬بقیه مقاله به شرح زیر سازماندهی شده است‪ :‬بخش ‪ 2‬کارهای مرتبط را خالصه می کند‪ .‬بخش ‪ 3‬کاربرد‬
‫بحث قرار می دهد‪ .‬بخش ‪ 4‬ارزیابی اولیه درخواست را ارائه می دهد‪ .‬در نهایت‪ ،‬بخش ‪ 5‬کار را خالصه می‌کند‪ ،‬به‬
‫‪.‬محدودیت‌ها اشاره می‌کند و طرح‌های تحقیقاتی آینده را تشریح می‌کند‬

‫‪2‬‬ ‫پیشینه و کارهای مرتبط‬


‫مدل های کاربر را می توان به عنوان توضیح در سیستم های توصیه گر [ ‪ ]25‬استفاده کرد و بسته به نوع کاربر‪ ،‬سطوح‬
‫توضیح متفاوتی از جزئیات ممکن است مناسب باشد [‪ .]22‬در ادامه‪ ،‬کار مرتبط با توصیه‌های قابل توضیح را مورد بحث‬
‫‪ .‬قرار می‌دهیم که بر مدل کاربر تمرکز دارد و توضیحاتی را با سطوح مختلف جزئیات ارائه می‌کند‬

‫‪2.1‬‬ ‫توصیه قابل توضیح مبتنی بر ورودی‬


‫افزایش بی‌اعتمادی و بدبینی مربوط به جمع‌آوری و استفاده از داده‌های شخصی‪ ،‬و نگرانی‌های مربوط به حریم خصوصی به‬
‫طور کلی منجر به افزایش عالقه به شفافیت مدل‌های کاربر جعبه سیاه شده است که برای ارائه توصیه‌ها استفاده می‌شود [‬
‫‪ .]25‬گراس و همکاران [‪ ]9‬بر اهمیت فعال کردن شفافیت با باز کردن و توضیح نمایه‌های کاربر جعبه سیاه که به عنوان‬
‫ورودی سیستم توصیه‌گر عمل می‌کنند‪ ،‬تأکید می‌کنند‪ .‬نویسندگان همچنین خاطرنشان می‌کنند که توضیحات نمایه کاربر‬
‫می‌تواند به قابلیت بررسی کمک کند تا به کاربران امکان دهد بازخورد صریح در مورد نمایه‌های کاربر ساخته شده داخلی و‬
‫‪ .‬خودشکوفایی ارائه دهند تا از کاربران در درک و کاوش ترجیحات شخصی خود حمایت کنند‬
‫در حالی که وظیفه باز کردن جعبه سیاه سیستم‌های توصیه‌گر با توضیح خروجی توصیه (یعنی چرا یک آیتم توصیه شد) یا‬
‫فرآیند توصیه ( یعنی نحوه ایجاد یک توصیه) در جامعه توصیه‌های قابل توضیح به خوبی مورد بررسی قرار گرفته است‪،‬‬
‫محققان به تازگی شروع به کار کرده‌اند‪ .‬کاوش روش هایی که از کاوش و درک ورودی توصیه (یعنی مدل کاربر) برای ایجاد‬
‫شفافیت در سیستم های توصیه گر پشتیبانی می کنند [‪ .]3‬به طور کلی‪ ،‬تحقیقات در مورد توصیه های قابل توضیح مبتنی بر‬
‫ورودی را می توان با افزایش پیچیدگی در سه گروه طبقه بندی کرد‪ .‬گروه اول بر روی باز کردن و افشای مدل کاربر جعبه‬
‫سیاه تمرکز دارد‪ .‬گروه دوم ابزارهایی را برای کاوش و بررسی مدل کاربر در معرض نمایش اضافه می کند‪ .‬و گروه سوم‬
‫‪ .‬روش هایی را ارائه می دهد که درک مدل کاربر را از طریق توضیحات پشتیبانی می کند‬

‫‪2.1.1‬‬ ‫باز کردن مدل کاربر‪ .‬چندین ابزار مدل کاربر در پشت مکانیسم توصیه را نشان داده و در معرض دید قرار داده اند‪ .‬به‬
‫با نمایش تصویری مدل کاربر‪ ،‬که شامل پنج ویژگی شخصیتی بزرگ‪ ،‬نیازهای اساسی و ]‪، «System U» [1‬عنوان مثال‬
‫ارزش‌های انسانی است‪ ،‬بر ورودی توصیه‌ها تمرکز می‌کند‪ .‬برای اینکه دانش‌آموزان بفهمند که چرا یک فعالیت آموزشی‬
‫خاص به آنها توصیه می‌شود‪" ،‬مستتری گریدز" [‪ ]4‬مفاهیم مربوط به فعالیت توصیه‌شده را بر اساس مدل‌های ریزدانه‬
‫از ویژگی های دانش آموزی مختلف (به ]‪ 'PeerFinder' [7‬یادگیرنده باز برجسته می‌کند‪ .‬مدل کاربر در معرض نمایش در‬
‫عنوان مثال‪ ،‬جنسیت‪ ،‬سن‪ ،‬برنامه) تشکیل شده است که برای توصیه همساالن مشابه استفاده می شود‪ .‬با این حال‪ ،‬قابلیت‬
‫‪.‬بررسی در این ابزارها وجود ندارد‬

‫‪2.1.2‬‬ ‫بررسی دقیق مدل کاربر‪ .‬توضیح توصیه‌ها می‌تواند بررسی‌پذیری یک سیستم توصیه‌گر را فعال یا بهبود بخشد‪ ،‬یعنی به‬
‫کاربران این امکان را می‌دهد که در صورت اشتباه بودن سیستم به سیستم اطالع دهند [‪ .]26‬بنابراین قابلیت بررسی به کنترل‬
‫کاربر مربوط می شود که می تواند در قسمت های مختلف خط لوله توصیه (به عنوان مثال ورودی‪ ،‬فرآیند و خروجی) اعمال‬
‫‪3‬‬
‫کالج ‪IUI '21، 13‬‬ ‫‪، TX‬تا ‪ 17‬آوریل‪ ،2021 ،‬ایستگاه‬ ‫همکاران ‪Guesmi‬‬ ‫‪.‬و‬

‫شود [‪ .]15 ،12‬در مقایسه با فعال کردن قابلیت کاوش در خروجی یا فرآیند سیستم‪ ،‬تنها تعداد کمی از آثار سیستم‌هایی ارائه‬
‫کرده‌اند که کنترل کاربر را بر روی الیه ورودی سیستم توصیه‌کننده با اجازه دادن به کاربران برای تصحیح مدل‌های خود در‬
‫صورت مخالفت ( بخش‌هایی از) آن یا تغییر مدل‌های خود در آن ارائه کرده‌اند‪ .‬به منظور تنظیم نتایج توصیه ها با توجه به‬
‫‪.‬نیازها و ترجیحات آنها‬
‫اولین تالش برای ارائه توضیحات قابل بررسی در [ ‪ ]6‬ارائه شد‪ .‬در این کار‪ ،‬یک توصیه‌کننده تعطیالت توضیحی مبتنی‬
‫بر متن ارائه می‌کند و کاربر می‌تواند بپرسد که چرا فرضیات خاصی (مانند بودجه کم) ساخته شده‌اند‪ .‬با انتخاب این گزینه آنها‬
‫را به صفحه ای با توضیح بیشتر و فرصتی برای اصالح آن در مدل کاربری خود می برد‪ .‬به طور مشابه‪ ،‬سیستم توصیه گر‬
‫در [‪ ]10‬توضیحاتی را در قالب ابرهای برچسب همپوشانی و تفاوت بین یک آیتم دانه و یک آیتم توصیه شده ارائه می دهد‪.‬‬
‫سپس کاربران می توانند با دستکاری ابرهای برچسب‪ ،‬توصیه ها را هدایت کنند‪ .‬باکالوف و همکاران [ ‪ ]2‬رویکردی برای‬
‫کنترل مدل‌های کاربر و اثرات شخصی‌سازی در سیستم‌های توصیه‌گر پیشنهاد کرد‪ .‬از تجسم برای توضیح رفتار انطباقی‬
‫کاربران با اجازه دادن به آنها برای دیدن نمایه‌هایشان و تنظیم ترجیحاتشان استفاده می‌کند‪ .‬جین و همکاران [ ‪ ]14‬با هدف ارائه‬
‫قابلیت کنترل بر تبلیغات دریافتی‪ .‬نویسندگان از یک نمودار جریان برای ارائه توضیحی بصری از فرآیند با باز کردن نمایه‬
‫کاربری مورد استفاده برای انتخاب تبلیغات استفاده کردند و به کاربران اجازه دادند تا نمایه خود را برای دریافت تبلیغات‬
‫احتمالی برای پشتیبانی صریحا ً چه می‌شد صحبت ‪ UI‬مرتبط تر بررسی کنند‪ .‬زورن و همکاران [‪ ]29‬در مورد پسوندهای‬
‫کرد؟ تعامل با سیستم‌های توصیه‌گر‪ ،‬که به کاربران اجازه می‌دهد تا تصمیم‌گیری الگوریتمی را بررسی‪ ،‬بررسی و زیر سوال‬
‫‪.‬ببرند‬

‫مشخص ‪2.1.3‬‬ ‫توضیح مدل کاربر‪ .‬در این کار‪ ،‬توضیح مدل‌های کاربر فراتر از نمایش و دستکاری مدل کاربر برای ارائه توضیحات‬
‫در مورد چگونگی استنتاج مدل کاربر است‪ .‬توضیح مدل‌های کاربر در سیستم‌های توصیه‌گر مؤثر نشان داده شده است [ ‪ ]5‬و‬
‫مزایای زیادی دارد‪ .‬این امر خودشکوفایی کاربران را تسهیل می کند‪ ،‬یعنی از کاربران در توسعه‪ ،‬کاوش و درک سلیقه‬
‫شخصی منحصر به فرد آنها حمایت می کند [‪ .]17‬عالوه بر این‪ ،‬به کاربران کمک می‌کند تا مدل ذهنی دقیق‌تری از سیستم‬
‫توصیه‌کننده بسازند‪ ،‬بنابراین منجر به افزایش شفافیت و اعتماد به سیستم می‌شود‪ .‬عالوه بر این‪ ،‬می تواند به تشخیص‬
‫سوگیری ها کمک کند که برای تولید توصیه های منصفانه بسیار مهم است‪ .‬با این حال‪ ،‬وظیفه توضیح مدل کاربر در تحقیقات‬
‫‪.‬توصیه‌های قابل توضیح مورد بررسی قرار نگرفته است‬
‫سالیوان و همکاران [‪ ]25‬بر توضیح نمایه‌های کاربر ساخته شده از داده‌های رفتار خواندن جمع‌آوری شده تمرکز دارد که‬
‫برای ارائه توصیه‌های مبتنی بر محتوا استفاده می‌شود‪ .‬نویسندگان‪ ،‬مدل کاربر را با خالصه کردن و تجسم نمایش‌های داخلی‬
‫با ابعاد باالی توصیه‌کننده از کاربران‪ ،‬در معرض دید قرار می‌دهند‪ .‬با این حال‪ ،‬تجسم‌هایی که نحوه استنباط مدل کاربر را‬
‫توضیح می‌دهند‪ ،‬ارائه نشده‌اند‪ .‬بالوگ و همکاران [‪ ]3‬یک تکنیک توصیه مبتنی بر مجموعه ارائه می دهد که به مدل کاربر‬
‫اجازه می دهد به طور صریح به زبان طبیعی ارائه شود تا به کاربران در درک توصیه های ارائه شده و بهبود آنها کمک کند‪.‬‬
‫هدف ما نیز توضیح مدل کاربر است‪ ،‬اما برخالف رویکرد بالوگ و همکاران‪ ،‬به جای توضیح زبان طبیعی‪ ،‬از‬
‫‪.‬تجسم‌سازی‌ها استفاده می‌کنیم‬

‫‪4‬‬
‫مدل‌های عالقه باز‪ ،‬قابل بررسی و قابل توضیح برای توصیه شفاف‬ ‫استیشن ‪IUI '21، 13‬‬ ‫‪، TX‬تا ‪ 17‬آوریل‪ ،2021 ،‬کالج‬

‫‪2.2‬‬ ‫توضیح با سطوح مختلف جزئیات‬


‫در این کار‪ ،‬سطح جزئیات به میزان اطالعاتی که در یک توضیح در معرض دید قرار می گیرد‪ ،‬اشاره دارد‪ .‬یک سوال مهم‬
‫در تحقیق توصیه‌های قابل توضیح این است که آیا رابطه بین سطح جزئیات و شفافیت یک رابطه خطی است؟ برای پاسخ به‬
‫این سوال‪ ،‬ابتدا باید بین شفافیت عینی و شفافیت درک شده توسط کاربر تمایز قائل شویم ‪ .‬شفافیت عینی به این معنی است که‬
‫سیستم توصیه‌کننده الگوریتم زیربنایی توصیه‌ها را نشان می‌دهد‪ .‬با این حال‪ ،‬الگوریتم ممکن است آنقدر پیچیده باشد که بتوان‬
‫آن را به روشی قابل تفسیر توسط انسان توصیف کرد‪ .‬بنابراین‪ ،‬ارائه «توجیه» به جای «توضیحات» که اغلب سطحی و‬
‫بیشتر کاربر محور هستند‪ ،‬ممکن است مناسب‌تر باشد‪ .‬از سوی دیگر‪ ،‬شفافیت درک شده توسط کاربر بر اساس نظر ذهنی‬
‫‪.‬کاربران در مورد اینکه سیستم تا چه حد قادر به توضیح توصیه های خود است [‪ ]8‬است‬
‫در زمینه هوش مصنوعی قابل توضیح به طور کلی‪ ،‬محسنی و همکاران‪ ]22[ .‬استدالل می کنند که گروه های کاربری‬
‫مختلف در هنگام استفاده از چنین سیستم هایی اهداف دیگری را در ذهن خواهند داشت‪ .‬به عنوان مثال‪ ،‬در حالی که‬
‫کارشناسان یادگیری ماشین ممکن است توضیحات بصری بسیار دقیق مدل‌های عمیق را برای کمک به بهینه‌سازی و تشخیص‬
‫الگوریتم‌ها ترجیح دهند‪ ،‬کاربران غیرمجاز انتظار توضیحات کامل و دقیق برای هر درخواست از یک عامل شخصی‌سازی‬
‫شده را ندارند‪ .‬در عوض‪ ،‬سیستم‌هایی که کاربران غیرمجاز به‌عنوان گروه‌های هدف دارند‪ ،‬هدفشان ارتقای تجربه کاربر با‬
‫سیستم از طریق بهبود درک و اعتماد آنهاست‪ .‬در همین راستا‪ ،‬میلر [‪ ]21‬استدالل می کند که ارائه الگوریتم دقیقی که توصیه‬
‫خاص را ایجاد می کند‪ ،‬لزوما بهترین توضیح نیست‪ .‬مردم تمایل دارند کیفیت توضیحات را در مورد فرآیند تولید خود‬
‫قضاوت نکنند‪ ،‬بلکه در مورد سودمندی آنها قضاوت می کنند‪ .‬عالوه بر اهداف کاربران‪ ،‬یکی دیگر از جنبه‌های حیاتی که بر‬
‫درک آن‌ها از توضیحات تأثیر می‌گذارد‪ ،‬قابلیت‌های شناختی آن‌ها است [‪ .]28‬تنها زمانی که کاربران زمان کافی برای‬
‫پردازش اطالعات و توانایی کافی برای پی بردن به معنای اطالعات داشته باشند‪ ،‬سطح باالتری از جزئیات در توضیح منجر‬
‫به درک بهتر می شود‪ .‬اما به محض اینکه حجم اطالعات فراتر از درک کاربران باشد‪ ،‬توضیح می تواند منجر به اضافه بار‬
‫اطالعات و سردرگمی شود‪ .‬بدون درک نحوه عملکرد سیستم‪ ،‬کاربران ممکن است سیستم را به اندازه کافی شفاف نبینند که به‬
‫‪.‬نوبه خود می تواند اعتماد کاربران به سیستم را کاهش دهد [‪]28 ،8‬‬
‫به طور خالصه‪ ،‬می توان فرض کرد که سطح باالتری از جزئیات توضیح شفافیت هدف سیستم را افزایش می دهد‪ ،‬اما‬
‫همچنین با خطر کاهش شفافیت درک شده توسط کاربر همراه است و این خطر به ویژگی های کاربر بستگی دارد‪ .‬بنابراین‪،‬‬
‫از سیستم های توصیه گر انتظار می رود که نوع مناسبی از توضیحات را برای گروه مناسب از کاربران ارائه دهند [ ‪.]22‬‬
‫یک رویکرد ارائه توضیحات درخواستی است که به اندازه کافی انعطاف پذیر باشد تا سطوح مختلفی از جزئیات را بسته به‬
‫و همکاران‪ ]20[ .‬یک سیستم توصیه کننده موسیقی ‪، Millecamp‬نیاز یا تخصص کاربران ارائه دهد [‪ .]22 ،20‬به عنوان مثال‬
‫را توسعه داد که نه تنها به کاربران اجازه می دهد با استفاده از "چرا؟" توضیحات را ببینند یا نه‪ .‬را فشار دهید‪ ،‬بلکه سطح‬
‫جزئیات را با کلیک کردن بر روی دکمه " بیشتر‪ /‬پنهان کردن" انتخاب کنید‪ .‬با این حال‪ ،‬ارائه توضیحات درخواستی با سطوح‬
‫‪.‬مختلف جزئیات در ادبیات توصیه‌های قابل توضیح نادر است‬

‫‪3‬‬ ‫‪RIMA‬‬

‫نه تنها هدفش توضیح این است که چرا یک مورد توصیه شده است‪ ،‬بلکه )‪ (RIMA‬برنامه شفاف توصیه‌ها و مدل‌سازی عالقه‬
‫از کاربران در کاوش‪ ،‬توسعه و درک عالیق خود به منظور ارائه توصیه‌های شفاف‌تر و شخصی‌شده‌تر پشتیبانی می‌کند‪ .‬این‬

‫‪5‬‬
‫کالج ‪IUI '21، 13‬‬ ‫‪، TX‬تا ‪ 17‬آوریل‪ ،2021 ،‬ایستگاه‬ ‫همکاران ‪Guesmi‬‬ ‫‪.‬و‬

‫برنامه اجرای یک رویکرد توصیه‌های قابل توضیح انسان محور است که توسط مدل‌های عالقه باز‪ ،‬قابل بررسی و قابل‬
‫توضیح با سطوح مختلف جزئیات برای برآورده کردن نیازها و ترجیحات کاربران مختلف هدایت می‌شود‪ .‬ما در این کار بر‬
‫روی توصیه توییت‌ها و کاربران توییتر تمرکز می‌کنیم (شکل ‪ 1‬را ببینید) و از تجسم‌های توضیحی برای ارائه بینش‌هایی در‬
‫‪ .‬مورد فرآیند توصیه با باز کردن‪ ،‬بررسی دقیق و توضیح مدل عالقه کاربر بر اساس سه سطح مختلف جزئیات تمرکز می‌کنیم‬

‫‪ RIMA.‬شکل ‪ .1‬رابط توصیه در‬

‫‪3.1‬‬ ‫باز کردن مدل عالقه‬


‫این است که به کاربران اجازه دهیم از مدل عالقه اساسی مورد استفاده برای ‪ RIMA‬هدف از باز کردن و افشای مدل عالقه در‬
‫‪ Semantic‬توصیه آگاه شوند‪ .‬این مدل‌های عالقه از انتشارات و توییت‌های کاربران ایجاد می‌شوند‪ .‬این برنامه از شناسه های‬
‫استفاده می کند که توسط کاربران برای جمع آوری نشریات و توییت های آنها ارائه شده است‪ .‬این ‪ Twitter‬و ‪Scholar‬‬
‫الگوریتم‌های استخراج عبارات کلیدی بدون نظارت را در نشریات و توییت‌های جمع‌آوری‌شده برای ایجاد عالیق مبتنی بر عبارت کلیدی‬

‫اعمال می‌کند ‪ .‬به منظور پرداختن به مسائل معنایی‪ ،‬ویکی‌پدیا به‌عنوان یک پایگاه دانش برای نگاشت عبارات کلیدی به صفحات‬
‫ویکی‌پدیا و ایجاد عالیق مبتنی بر ویکی‌پدیا استفاده می‌شود ‪ .‬عالوه بر این‪ ،‬ویکی‌پدیا برای یافتن دسته‌های عالیق مبتنی بر ویکی‌پدیا و ایجاد‬
‫‪ .‬عالیق مبتنی بر دسته‌بندی ویکی‌پدیا استفاده می‌شود‬
‫نمودارهای مختلفی برای خالصه و تجسم مدل عالقه مورد استفاده برای ارائه توصیه های مبتنی بر محتوا به توییت ها و‬
‫کاربران توییتر‪ ،‬همانطور که در شکل ‪ 2‬نشان داده شده است‪ ،‬ارائه شده است‪ 5 .‬عالقه‪ ،‬بر اساس توییت های منتشر شده در‬
‫ماه گذشته و انتشارات منتشر شده در سال گذشته‪ .‬ما یک نمودار دایره ای را برای تجسم این مدل انتخاب کردیم زیرا اندازه هر‬
‫مدل عالقه بلندمدت ‪a).‬شکل ‪ (2‬تکه نشانه سریعی از وزن عالقه کوتاه مدت خاص را در اختیار کاربران قرار می دهد‬
‫( (همچنین بر اساس مدل عالقه مبتنی بر ویکی‌پدیا) ‪ 15‬عالقه برتر را در پنج سال گذشته با استفاده از ابر کلمه نمایش می‌دهد‬
‫مدل عالقه بالقوه ( بر اساس مدل عالقه مبتنی بر دسته ویکی‌پدیا) به کاربران اجازه می‌دهد تا عالیق را شناسایی ‪b).‬شکل ‪2‬‬
‫کنند‬

‫‪6‬‬
‫مدل‌های عالقه باز‪ ،‬قابل بررسی و قابل توضیح برای توصیه شفاف‬ ‫استیشن ‪IUI '21، 13‬‬ ‫‪، TX‬تا ‪ 17‬آوریل‪ ،2021 ،‬کالج‬

‫مدت )الف(‬ ‫مدل بهره کوتاه‬ ‫(ب) مدل بهره بلند مدت‬

‫بالقوه )ج(‬ ‫مدل بهره‬ ‫(د) تکامل مدل بهره‬

‫شکل ‪ .2‬باز کردن مدل عالقه‬

‫از نظر معنایی مشابه عالیق آنهاست‪ .‬ما یک نمودار پیوند گره را انتخاب کردیم تا عالیق درازمدت کاربر (در سمت چپ) را‬
‫در نهایت‪ ،‬تکامل مدل عالقه (بر اساس مدل عالقه ‪c).‬شکل ‪ (2‬با دسته‌های مرتبط ویکی‌پدیا (در سمت راست) مرتبط کنیم‬
‫چگونگی تغییر ‪ 10‬عالقه برتر خود را )‪d‬شکل ‪ (2‬مبتنی بر ویکی‌پدیا) به کاربران اجازه می‌دهد تا با استفاده از نمودار جریان‬
‫‪.‬در طول زمان پیگیری کنند‬

‫‪3.2‬‬ ‫بررسی دقیق مدل بهره‬


‫دقیق‌تر کردن آن ‪ RIMA،‬هدف اصلی فعال کردن کاربران برای ارائه بازخورد صریح و اصالح مدل‌های عالقه خود در‬
‫مدل‌ها است‪ .‬همانطور که در شکل ‪ 3‬نشان داده شده است‪ ،‬برنامه یک رابط فراهم می کند که در آن کاربران می توانند مدل‬
‫عالقه جهانی خود را با افزودن یا حذف عالیق مدیریت کنند‪ .‬آنها همچنین می توانند وزن داده شده به یک عالقه را تغییر دهند‬
‫‪.‬و اهمیت آن را در مدل عالقه خود منعکس کنند‬
‫همچنین توانمندسازی کاربران برای کنترل سیستم و داشتن یک نظر فعال در فرآیند‪ ،‬توصیه را شفاف‌تر می‌کند و در نتیجه‬
‫پشتیبانی می کند؟ تعامالتی که به ‪ What-if‬منجر به اعتماد بهتر و رضایت کاربر می‌شود‪ .‬برای رسیدن به این هدف‪ ،‬برنامه از‬
‫کاربران کنترل کاملی بر ورودی سیستم توصیه‌گر (مدل عالقه آنها) و همچنین خروجی آن (توصیه‌هایی که از ورودی‬
‫تعریف‌شده ناشی می‌شوند) می‌دهد‪ .‬از طریق تجسم‌های تعاملی‪ ،‬کاربران می‌توانند ورودی را بررسی و تنظیم کنند تا خروجی‬
‫سیستم را بر اساس نیازها و ترجیحات خود تطبیق دهند‪ .‬عالوه بر این‪ ،‬کاربران می توانند عالیق خود را تغییر دهند و تأثیر‬
‫این تغییرات را بر توصیه های سیستم مشاهده کنند‪ .‬به عنوان مثال‪ ،‬کاربران می توانند عالیق جدید را در کادر جستجو اضافه‬
‫‪7‬‬
‫کالج ‪IUI '21، 13‬‬ ‫‪، TX‬تا ‪ 17‬آوریل‪ ،2021 ،‬ایستگاه‬ ‫همکاران ‪Guesmi‬‬ ‫‪.‬و‬

‫کنند یا موارد موجود را حذف کنند‪ .‬کادر جستجو در ابتدا با عالیق کاربر پر شده است که بر اساس وزن آنها که توسط سیستم‬
‫ایجاد می شود مرتب شده است‪ .‬کاربران می توانند ترتیب عالیق را از طریق ویژگی کشیدن و رها کردن تغییر دهند تا اهمیت‬
‫آنها را تغییر دهند‪ .‬با کلیک بر روی دکمه اطالعات در کنار کادر جستجو‪ ،‬کاربر می تواند از لغزنده های تعاملی برای تنظیم‬
‫گزینه دیگری برای نمایش مدل عالقه از طریق نمودار رادار ارائه شده ‪).‬را ببینید ‪a‬شکل ‪ (4‬وزن هر کلمه کلیدی استفاده کند‬
‫‪ .‬است که در آن کاربر می تواند موقعیت عالیق را از طریق کشیدن و رها کردن برای تغییر تغییر دهد‬

‫شکل ‪ .3‬کاربران می توانند مدل عالقه خود را مدیریت کنند‬

‫‪).‬را ببینید ‪b‬شکل ‪ (4‬ارتباط آنها فواصل تا مرکز نشان دهنده ارتباط عالیق است و نزدیکتر به مرکز به معنای مهمتر است‬
‫افزودن‪ ،‬حذف و وزن دادن به عالیق بر ترتیب توییت های توصیه شده تأثیر می گذارد‪ .‬این رویکرد اکتشافی از کاربران‬
‫عالقه داشته باشم چه می شود؟" یا "اگر ‪ Y‬به جای ‪ X‬در پاسخگویی به موارد مختلف پشتیبانی می‌کند‪ .‬سواالتی مانند "اگر به‬
‫"را تغییر دهم چه می شود؟ ‪ Z‬اهمیت‬

‫)الف(‬ ‫)ب(‬

‫شکل ‪ .4‬کاربران می توانند اهمیت عالیق خود را تغییر دهند‬

‫‪8‬‬
‫مدل‌های عالقه باز‪ ،‬قابل بررسی و قابل توضیح برای توصیه شفاف‬ ‫استیشن ‪IUI '21، 13‬‬ ‫‪، TX‬تا ‪ 17‬آوریل‪ ،2021 ،‬کالج‬

‫‪3.3‬‬ ‫توضیح مدل بهره‬


‫رویکرد ما برای توضیح توصیه‌های توییت مبتنی بر توضیح مدل‌های عالقه اساسی کاربر است که برای ارائه توصیه‌ها‬
‫تقویت آگاهی کاربر از داده‌های خام (انتشارات و توییت‌ها) و داده‌های ‪ RIMA،‬استفاده می‌شود‪ .‬هدف از تبیین مدل عالقه در‬
‫مشتق‌شده (مدل عالقه) است که سیستم توصیه‌گر به‌عنوان ورودی برای تولید توصیه‌ها استفاده می‌کند تا شفافیت را افزایش‬
‫دهد و قابل درک باشد‪ .‬از توصیه عالوه بر این‪ ،‬این ممکن است به کاربران اجازه دهد از خطاهای سیستم آگاه شوند و در‬
‫‪ .‬نتیجه به آنها کمک کند تا بازخورد و اصالح را برای بهبود توصیه های آینده ارائه دهند‬
‫این برنامه توضیحات درخواستی ارائه می دهد‪ ،‬یعنی کاربران می توانند تصمیم بگیرند که آیا توضیح را ببینند یا نه و‬
‫توضیح اولیه‬ ‫کاربر می تواند ‪a)،‬شکل ‪ (5‬همچنین می توانند انتخاب کنند که چه سطحی از جزئیات توضیح را می خواهند ببینند‪ .‬در‬
‫روی عالقه مندی کلمه ابری برای دیدن منبع آن (یعنی انتشارات یا توییت ها) شناور کند‪ .‬هنگامی که کاربر روی عالقه مندی‬
‫در کلمه ابر کلیک می کند‪ ،‬توضیح میانی اطالعات بیشتری را از طریق یک پنجره بازشو نشان می دهد که وقوع عالقه انتخاب شده‬
‫سطح بعدی جزئیات در توضیح پیشرفته ارائه شده است که از ‪b).‬شکل ‪ (5‬در توییت ها یا عنوان‪/‬چکیده انتشارات را برجسته می کند‬
‫( یک رویکرد توضیح با مثال پیروی می کند تا منطق الگوریتم مورد استفاده برای استنتاج مدل عالقه را به تفصیل نشان دهد‬
‫‪).‬را ببینید ‪c‬شکل ‪5‬‬

‫اولیه )الف(‬ ‫توضیح‬ ‫(ب) توضیح میانی (ج) توضیح پیشرفته‬

‫شکل ‪ .5‬توضیح مدل عالقه با سه سطح جزئیات‬

‫‪4‬‬ ‫ارزیابی‬
‫ما یک مطالعه مقدماتی مبتنی بر مصاحبه را با ده محقق از رشته‌های مختلف انجام دادیم تا پتانسیل رویکرد پیشنهادی خود را‬
‫برای بهبود شفافیت‪ ،‬بررسی‌پذیری و رضایت کاربر از سیستم توصیه‌کننده قابل توضیح ارزیابی کنیم‪ .‬در ابتدای مصاحبه‪ ،‬هر‬
‫یک از شرکت کنندگان به طور خالصه با زمینه های سیستم های توصیه گر و مدل سازی کاربر آشنا شدند‪ .‬در مرحله بعد‪ ،‬از‬
‫و ‪ Semantic Scholar‬برای ایجاد مدل های عالقه خود بر اساس شناسه های ‪ RIMA‬شرکت کنندگان خواسته شد تا از برنامه‬
‫و مشاهده تجسم های مربوط به مدل های عالقه خود استفاده کنند‪ .‬سپس‪ ،‬سه تجسم به شرکت‌کنندگان ارائه شد که ‪Twitter‬‬
‫نشان‌دهنده توضیحات پایه‪ ،‬متوسط و پیشرفته مدل‌های عالقه تولید شده آنها بود‪ .‬پس از آن‪ ،‬از آنها خواسته شد توییت‌های‬
‫توصیه‌شده را بررسی کنند و از ویژگی‌های ارائه شده برای دستکاری مدل‌های عالقه خود برای تأثیرگذاری بر نتایج‬
‫توصیه‌ها استفاده کنند‪ .‬در نهایت‪ ،‬از شرکت‌کنندگان در مورد نظراتشان نسبت به توضیحات ارائه‌شده‪ ،‬با هدایت عبارات‬
‫خالصه‌شده در جدول ‪ 1‬و سؤاالت باز دیگر مانند « چرا می‌خواهند توضیحات مدل‌های عالقه‌شان را ببینند» و «کدام سطح‬
‫‪ ».‬توضیحی» (یعنی ابتدایی‪ ،‬متوسط‪ ،‬پیشرفته) ترجیح می دهند ببینند‬

‫‪9‬‬
‫کالج ‪IUI '21، 13‬‬ ‫‪، TX‬تا ‪ 17‬آوریل‪ ،2021 ،‬ایستگاه‬ ‫همکاران ‪Guesmi‬‬ ‫‪.‬و‬

‫به طور کلی‪ ،‬شرکت‌کنندگان در مورد سودمندی داشتن توضیحاتی در مورد مدل‌های عالقه استنباط‌شده‌شان و همچنین‬
‫امکان دستکاری آنها نظر مثبت کلی نشان دادند‪ .‬با این حال‪ ،‬آنها دالیل مختلفی برای دیدن توضیحات ارائه کردند‪ .‬دو شرکت‬
‫کننده اظهار داشتند که در مدل عالقه خود عالیق اشتباهی دارند یا مورد انتظار نبودند و می خواستند آنها را بررسی کنند‪.‬‬
‫سایر شرکت کنندگان ذکر کردند که آنها فقط کنجکاو بودند که ببینند مدل عالقه آنها چگونه ایجاد شده است‪ .‬این با یافته های‬
‫‪.‬مطابقت دارد )‪ (ITS‬مطالعه پاتنام و کوناتی [‪ ]24‬در زمینه سیستم های آموزشی هوشمند‬
‫عالوه بر این‪ ،‬شرکت‌کنندگان در مورد اینکه ترجیح می‌دهند چه سطحی از جزئیات را ببینند‪ ،‬نظرات متفاوتی داشتند‪ .‬این‬
‫نشان می دهد که تفاوت های بالقوه فردی کاربر بر ترجیحات آنها نسبت به سطح توضیح تأثیر می گذارد‪ .‬یک انتخاب طراحی‬
‫‪.‬مهم در توصیه قابل توضیح که نیاز به کاوش عمیق دارد‬

‫‪5‬‬ ‫نتیجه گیری و کار آینده‬


‫در سال‌های اخیر‪ ،‬تالش‌های مختلفی برای پرداختن به موضوع جعبه سیاه سیستم‌های توصیه‌گر با ارائه توضیحاتی صورت‬
‫گرفته است که کاربران را قادر می‌سازد تا توصیه‌ها را درک کنند‪ .‬در این مقاله‪ ،‬ما دو جنبه را که در تحقیقات توصیه‌های‬
‫قابل توضیح بررسی نشده است‪ ،‬مورد بررسی قرار دادیم‪ ،‬یعنی ارائه توضیحاتی که بر ورودی (یعنی مدل کاربر) تمرکز‬
‫دارد و ارائه توضیحات شخصی‌شده با سطوح مختلف جزئیات‪ .‬برای این منظور ما شفافیت را پیشنهاد کردیم‬
‫سواالت هدف توضیح‬
‫شفافیت‬ ‫این سیستم به من کمک می کند تا بفهمم چرا توییت ها به من توصیه شده ‪Q1:‬‬
‫است‬
‫سیستم توضیح واضحی از نحوه ایجاد عالیق من ارائه می دهد ‪Q2:‬‬
‫می توانم تأثیر وزن عالیق را بر توییت های توصیه شده درک کنم ‪Q3:‬‬
‫من احساس می کنم که کنترل فرآیند توصیه را در دست دارم ‪ Q4:‬قابلیت بررسی‬
‫رضایت‬ ‫کند ‪Q5:‬‬
‫‪ Q6:‬تجسم مدل عالقه من به طور دقیق عالیق من را توصیف می‬
‫‪.‬توییت هایی که به من توصیه می شود با عالیق من مطابقت دارد‬
‫جدول ‪ .1‬بیانیه های ارزیابی‬

‫که هدف آن باز کردن‪ ،‬بررسی دقیق و توضیح مدل عالقه کاربر بر اساس سه سطح )‪ (RIMA‬برنامه مدل‌سازی پیشنهاد و عالقه‬
‫را در ایجاد توضیحات بر اساس تقاضای ورودی نشان می‌دهد‪ RIMA .‬جزئیات است‪ .‬نتایج ارزیابی اولیه سودمندی رویکرد‬
‫در کار آینده ما قصد داریم رویکرد پیشنهادی را برای توضیح توصیه‌های نشریات‪ ،‬محققان و کنفرانس‌ها به کار ببریم‪ .‬ما‬
‫همچنین سایر تجسم‌های ممکن را برای ارائه توضیحات در سه سطح جزئیات بررسی خواهیم کرد‪ .‬عالوه بر این‪ ،‬یک مطالعه‬
‫کمی و کیفی کاربر گسترده‌تر برای بررسی رابطه بین ویژگی‌های کاربران و سطح جزئیات توضیحات و تأثیرات این دو‬
‫‪.‬متغیر بر درک و تعامل با سیستم توصیه‌گر قابل توضیح انجام خواهد شد‬

‫‪10‬‬
‫مدل‌های عالقه باز‪ ،‬قابل بررسی و قابل توضیح برای توصیه شفاف‬ ‫استیشن ‪IUI '21، 13‬‬ ‫‪، TX‬تا ‪ 17‬آوریل‪ ،2021 ،‬کالج‬

‫منابع‬
‫]‪[1‬‬ ‫هرنان بادنس‪ ،‬متئو ان بنگوالید‪ ،‬جیلین چن‪ ،‬لیانگ گو‪ ،‬ابن هابر‪ ،‬جالل محمود‪ ،‬جفری دبلیو نیکولز‪ ،‬آدیتیا پال‪ ،‬جرالد‬
‫استخراج خودکار ویژگی های شخصیتی از رسانه های اجتماعی ‪. System U:‬شوت‪ ،‬بارتون آ اسمیت‪ ،‬و همکاران‪2014 .‬‬
‫‪.‬در مورد سیستم های توصیه کننده ‪ ACM 374-373 .‬برای توصیه افراد‪ .‬در مجموعه مقاالت هشتمین کنفرانس‬
‫]‪[2‬‬ ‫فدور باکالوف‪ ،‬ماری ژان مورس‪ ،‬بیرجیتا کونیگ ریس‪ ،‬بهار ساتلی‪ ،‬رنه ویته‪ ،‬گرگ باتلر و آدریان تسانگ‪.2013 .‬‬
‫رویکردی برای کنترل‬
‫مدل های کاربر و اثرات شخصی سازی در سیستم های توصیه گر در مجموعه مقاالت کنفرانس بین المللی ‪ 2013‬رابط‬
‫‪.‬کاربری هوشمند ‪56-49 .‬‬
‫]‪[3‬‬ ‫کریستیان بالوگ‪ ،‬فیلیپ رادلنسکی و شوشان آراکلیان‪ .2019 .‬مدل های کاربر شفاف‪ ،‬قابل بررسی و قابل توضیح برای‬
‫‪.‬توصیه شخصی‬
‫در مورد تحقیق و توسعه در بازیابی اطالعات ‪ ACM SIGIR -265 .‬در مجموعه مقاالت چهل و دومین کنفرانس بین المللی‬
‫‪274.‬‬
‫]‪[4‬‬ ‫‪..‬جردن باریا‪-‬پیندا و پیتر بروسیلوفسکی‪ .2019 .‬شفاف سازی توصیه های آموزشی از طریق یک مدل یادگیرنده ریز دانه‬
‫‪ IUI‬در کارگاه های‬
‫]‪[5‬‬ ‫فیلیپ بونهارد و مارتینا آنجال ساسه‪" .2006 .‬من را می شناسم‪ ،‬تو را می شناسم" ‪ -‬استفاده از نمایه ها و شبکه های‬
‫‪ BT 24، 3 (2006)، 84-98.‬اجتماعی برای بهبود سیستم های توصیه کننده‪ .‬مجله فناوری‬
‫]‪[6‬‬ ‫‪ Ph.D. http://hdl.handle.net/2123/10206‬مارک چرکوفسکی ‪ .2006‬فرامتن تطبیقی قابل بررسی ‪ .‬دکترای فلسفه‬
‫]‪[7‬‬ ‫فن دو‪ ،‬کاترین پلیزانت‪ ،‬نیل اسپرینگ و بن اشنایدرمن‪ .2018 .‬رابط های بصری برای سیستم های توصیه‪ :‬یافتن همتایان‬
‫‪ (TIST) 10، 1 (2018)، 1-23.‬در سیستم های هوشمند و فناوری ‪ ACM‬مشابه و غیر مشابه‪ .‬معامالت‬
‫]‪[8‬‬ ‫فاتح گدیکلی‪ ،‬دیتمار جاناخ‪ ،‬و موزی جی‪ .2014 .‬چگونه باید توضیح دهم؟ مقایسه انواع مختلف توضیح برای سیستم‬
‫های توصیه گر‬
‫‪.‬مجله بین المللی مطالعات انسانی‪-‬کامپیوتری ‪382-367 ،)2014( 4 ،72‬‬
‫]‪[9‬‬ ‫دی گراوس‪ ،‬ام ساپلی و دی مان چو‪" .2018 .‬بگذار به تو بگویم کی هستی" ‪ -‬توضیح سیستم های توصیه گر با باز کردن‬
‫‪.‬نمایه های کاربر جعبه سیاه‬
‫‪ .‬در مورد توصیه های مسئول ‪ FATREC‬در مجموعه مقاالت کارگاه‬
‫]‪[10‬‬ ‫استفن جی گرین‪ ،‬پل المر‪ ،‬جفری الکساندر‪ ،‬فرانسوا میله‪ ،‬سوزانا کرک‪ ،‬جسیکا هولت‪ ،‬جکی بورک و شیائو‪-‬ون مک‪.‬‬
‫‪ .2009‬تولید‬
‫در مورد سیستم ‪ ACM‬توصیه های شفاف و قابل هدایت از توضیحات متنی موارد‪ .‬در مجموعه مقاالت سومین کنفرانس‬
‫‪.‬های توصیه کننده ‪284-281 .‬‬
‫]‪[11‬‬ ‫مواد گوسمی‪ ،‬محمد امین چاتی و ارهام مسلم‪ .2020 .‬مروری بر تجسم‌های توضیحی در سیستم‌های توصیه‌کننده‪ .‬که در‬
‫‪.‬مجموعه مقاالت همراه ‪ (LAK20) 491-480 .‬دهمین کنفرانس بین المللی تحلیل و دانش یادگیری‬
‫]‪[12‬‬ ‫چن هی‪ ،‬دنیس پارا و کاترین وربرت‪ .2016 .‬سیستم های توصیه گر تعاملی‪ :‬بررسی وضعیت هنر و چالش ها و فرصت‬
‫‪.‬های تحقیقاتی آینده‪ .‬سیستم های خبره با برنامه های کاربردی ‪27-9 ،)2016( 56‬‬

‫‪11‬‬
‫کالج ‪IUI '21، 13‬‬ ‫‪، TX‬تا ‪ 17‬آوریل‪ ،2021 ،‬ایستگاه‬ ‫همکاران ‪Guesmi‬‬ ‫‪.‬و‬

‫مجموعه مقاالت کنفرانس ]‪[13‬‬ ‫‪ ACM‬جاناتان ال هرلوکر‪ ،‬جوزف کنستان و جان ریدل‪ .2000 .‬تشریح توصیه های فیلترینگ مشارکتی‪ .‬در‬
‫‪.‬در سال ‪ 2000‬در مورد کار تعاونی پشتیبانی شده از رایانه ‪250–241 .‬‬
‫]‪[14‬‬ ‫یوچنگ جین‪ ،‬کارستن سیپ‪ ،‬اریک دووال و کاترین وربرت‪ .2016 .‬برو با جریان‪ :‬اثرات شفافیت و کنترل کاربر بر‬
‫تبلیغات هدفمند‬
‫با استفاده از نمودارهای جریان در مجموعه مقاالت کنفرانس کاری بین المللی در مورد رابط های بصری پیشرفته ‪-68 .‬‬
‫‪75.‬‬
‫]‪[15‬‬ ‫در سیستم‌های ‪ ACM‬مایکل یوگواچ و دیتمار یاناخ‪ .2017 .‬تعامل با توصیه‌کنندگان ‪ -‬مرور کلی و مسیرهای تحقیق‪ .‬تراکنش‌های‬

‫‪ (TiiS) 7، 3 (2017)، 1-46.‬هوشمند تعاملی‬


‫مجموعه مقاالت کنفرانس ]‪[16‬‬ ‫‪ CHI 2016‬رنه اف کیزیلچک‪ .2016 .‬چقدر اطالعات؟ اثرات شفافیت بر اعتماد در یک رابط الگوریتمی در‬
‫‪.‬در مورد عوامل انسانی در سیستم های محاسباتی ‪2395-2390 .‬‬
‫]‪[17‬‬ ‫بارت پی کنیننبورگ‪ ،‬ساعدیکا سیواکومار و داریسیا ویلکینسون‪ .2016 .‬سیستم های توصیه کننده برای خودشکوفایی‪.‬‬
‫‪ ACM‬در مجموعه مقاالت دهم‬

‫‪.‬کنفرانس سیستم های توصیه گر ‪14-11‬‬


‫]‪[18‬‬ ‫پیگی کوکی‪ ،‬جیمز شفر‪ ،‬جی پوجارا‪ ،‬جان اودونوان و لیز گتور‪ .2019 .‬توضیحات شخصی برای سیستم های توصیه‬
‫کننده ترکیبی‪ .‬که در‬
‫‪ .‬مجموعه مقاالت بیست و چهارمین کنفرانس بین المللی رابط های کاربری هوشمند ‪390-379 .‬‬
‫]‪[19‬‬ ‫تاد کولزا‪ ،‬سیمون استامپ‪ ،‬مارگارت برنت‪ ،‬شری یانگ‪ ،‬ایروین کوان و ونگ‪-‬کین ونگ‪ .2013 .‬خیلی زیاد‪ ،‬خیلی کم‪،‬‬
‫یا درست است؟ روش هایی که توضیحات بر مدل های ذهنی کاربران نهایی تاثیر می گذارد‪ .‬در سال ‪ 2013‬سمپوزیوم‬
‫‪ . IEEE، 3-10.‬در مورد زبان های بصری و محاسبات انسان محور ‪IEEE‬‬

‫]‪[20‬‬ ‫مارتین میلکمپ‪ ،‬نی نی هتون‪ ،‬کریستینا کونااتی و کاترین وربرت‪ .2019 .‬توضیح دادن یا عدم توضیح‪ :‬اثرات ویژگی‬
‫های شخصی هنگام توضیح توصیه های موسیقی‪ .‬در مجموعه مقاالت بیست و چهارمین کنفرانس بین المللی رابط های‬
‫‪.‬کاربری هوشمند ‪407-397 .‬‬
‫]‪[21‬‬ ‫‪.‬تیم میلر‪ .2019 .‬توضیح در هوش مصنوعی‪ :‬بینش هایی از علوم اجتماعی‪ .‬هوش مصنوعی ‪38-1 ،)2019( 267‬‬
‫]‪[22‬‬ ‫سینا محسنی‪ ،‬نیلوفر زارعی و اریک دی راگان‪ .2018 .‬بررسی چند رشته ای و چارچوبی برای طراحی و ارزیابی‬
‫‪. arXiv (2018)، arXiv–1811.‬سیستم های هوش مصنوعی قابل توضیح‬
‫]‪[23‬‬ ‫اینگرید نونس و دیتمار جاناخ‪ .2017 .‬بررسی سیستماتیک و طبقه بندی توضیحات در سیستم های پشتیبانی تصمیم و‬
‫‪.‬توصیه‪ .‬مدل سازی کاربر و تعامل با کاربر ‪444-393 ،)2017( 5-3 ،27‬‬
‫]‪[24‬‬ ‫در سیستم‌های آموزشی هوشمند )‪ (XAI‬ونسا پاتنام و کریستینا کونتی‪ .2019 .‬بررسی نیاز به هوش مصنوعی قابل توضیح‬
‫که در ‪(ITS).‬‬

‫‪ ACM IUI 2019 .‬مجموعه مقاالت مشترک کارگاه های آموزشی‬


‫]‪[25‬‬ ‫امیلی سالیوان‪ ،‬دیمیتریوس بونتوریدیس‪ ،‬یارون هارامبام‪ ،‬شبنم نجفیان‪ ،‬فلیسیا لوچرباخ‪ ،‬میکوال ماخورتیخ‪ ،‬دوموکوس‬
‫کلن‪ ،‬داریسیا ویلکینسون‪ ،‬دیوید گراس‪ ،‬و ناوا تینتارف‪ .2019 .‬خواندن اخبار با هدف‪ :‬توضیح پروفایل های کاربران‬
‫برای خودشکوفایی‪ .‬در انتشارات الحاقی‬
‫‪.‬بیست و هفتمین کنفرانس مدل سازی‪ ،‬انطباق و شخصی سازی کاربر ‪245-241 .‬‬
‫‪12‬‬
‫مدل‌های عالقه باز‪ ،‬قابل بررسی و قابل توضیح برای توصیه شفاف‬ ‫استیشن ‪IUI '21، 13‬‬ ‫‪، TX‬تا ‪ 17‬آوریل‪ ،2021 ،‬کالج‬

‫]‪[26‬‬ ‫ناوا تینتارف و جودیت ماستوف‪ .1394 .‬تبیین توصیه ها‪ :‬طراحی و ارزیابی‪ .‬در کتابچه راهنمای سیستم های توصیه کننده ‪ .‬اسپرینگر‪،‬‬
‫‪382-353.‬‬
‫]‪[27‬‬ ‫‪ arXiv arXiv:1804.11192 (2018).‬یونگ فنگ ژانگ و شو چن‪ .2018 .‬توصیه قابل توضیح‪ :‬نظرسنجی و دیدگاه های جدید‪ .‬پیش چاپ‬

‫]‪[28‬‬ ‫روجینگ ژائو‪ ،‬ایزاک بنباسات و حسن چاووش اوغلو‪ .2019 .‬آیا کاربران همیشه می خواهند بیشتر بدانند؟ بررسی‬
‫‪.‬رابطه بین شفافیت سیستم و اعتماد کاربران به سیستم های مشاوره‪)2019( .‬‬
‫]‪[29‬‬ ‫‪ ExSS-ATEC@ IUI .‬مارتین زورن‪ ،‬مالین ایبند و دانیل بوشک‪ .2020 .‬اگر چه؟ تعامل با توصیه ها در‬

‫‪13‬‬

You might also like