مشکلات عینیت و سوگیری مرتبط با آن موضوع برجسته و تکراری در یافته های مطالعات مربوطه در هنگام تصمیمگیری بوده است. به عنوان مثال، سان[1] (2019) در مورد کاربرد یادگیری عمیق در روشهای حسابرسی برای شناسایی اطلاعات و چالشهای آن براساس سوگیری به سختی قابل ردیابی و ساختارهای داده بسیار پیچیده مینویسد. علاوه براین، آرنابولدی[2] و همکاران (2017) رسانه های اجتماعی و تغییر اطلاعات کلان داده و درنتیجه فرایندهای تصمیمگیری مغرضانه را مورد بررسی قرار دادند. مطالعه لیچ-دیبالد[3] و همکاران (2019) نیز استفاده از هوش مصنوعی را در ارزیابی شغل و درخواستهای وام افراد توضیح میدهد و شواهد زیادی از تبعیض را مطرح کرده است. از طرفی نیز سانچزمدینا[4] و همکاران (2017) تأثیر تغییر در هنجارها را بر وضعیت تداوم نگرانی براساس استفاده حسابرسان از هوش مصنوعی مطالعه کرد. با نگاهی عمیقتر به زمینههای موجود در مقالات، الگوریتمهای زیربنایی هوش مصنوعی و دادههای بزرگ به عنوان عوامل مؤثر در اکثر چالشهای اخلاقی برای تصمیمگیریهای مبتنی بر هوش مصنوعی شناسایی شدند. برای مثال، این الگوریتمها برای پردازش وامهای افراد، هشدار در مورد از دست دادن اعتبار بالقوه و شناسایی الگوهای پرداخت دیده میشوند (بومان[5] و همکاران، 2019؛ کلوگ[6] و همکاران، 2020).
با این حال، این الگوریتمها خروجی کار انسان هستند و داده های ارائه شده از گذشته سرچشمه میگیرند و اغلب توسط انسانها انتخاب میشوند. از اینرو پتانسیل سوگیری را نیز دارند. درنتیجه، به جای اینکه بپرسیم آیا هوش مصنوعی میتواند عینی باشد، سؤالات میتواند بدین شرح باشد: چگونه انسانها میتوانند الگوریتمهای عینی بسازند؛ آیا دادههایی که الگوریتمها را تغذیه میکنند عاری از سوگیری ذاتی هستند. آموزش یک سیستم هوش مصنوعی برای نادیده گرفتن نژاد، جنسیت و گرایش جنسی و اتخاذ تصمیمات براساس اطلاعات دیگر امکانپذیر است. از سوی دیگر، هوش مصنوعی همچنین میتواند فرصتهایی را برای غلبه بر تعصبات انسانی فراهم کند. همانطور که داگرتی[7] و همکاران (2019) بیان کردند: اگر برنامه های نرمافزاری میتوانستند نابرابریهایی را که دسترسی اقلیتها به وامهای مسکن و سایر وامها را محدود کرده است، محاسبه کنند، چه میشود؟ به بیانی دیگر، اگر به سیستمهای ما آموزش داده شود که دادههای مربوط به نژاد، جنسیت، گرایش جنسی و سایر ویژگیهایی را که به تصمیمات موردنظر مرتبط نیستند نادیده بگیرند، چه اتفاقی میافتد؟. با این وجود، چنین سیستمی تنها با کمک و آگاهی اخلاقی متخصصان انسانی که سیستمهای هوش مصنوعی را ایجاد و آموزش میدهند، ایجاد میشود (لهنر[8] و همکاران، 2020). بنابراین این چالش خاص عینیت عمدتاً بر مؤلفه های قضاوت اخلاقی و انگیزه اخلاقی در مدل رِست[9] تأثیر میگذارد. زیرا هر دو با توجه به اطلاعات یا الگوریتمهای مغرضانه ناقص خواهند بود. بنابراین برای مثال از طریق دستورالعملهای روشن و ایجاد آگاهی برای توسعه دهندگان و کارکنان، باید با آن برخورد شود.
[1] . Sun
[2] . Arnabouldi
[3] . Lietch-Debald
[4] . Sanchezmedina
[5] . Bumann
[6] . Kellogg
[7] . Daggerti
[8] . Lehner
[9] . Rest