چندی پیش جان جیاناندریا (John Giannandrea) مدیر بخش هوش مصنوعی گوگل، در جریان کنفرانس Made in AI با اظهار نگرانی نسبت به سیستمهای هوشمندی که تعصبات انسانها را یاد میگیرند، گفت: نیاز نیست ما نگران رباتهای قاتل باشیم بلکه باید از تبعیض و رفتارهای جانبدارانه بترسیم.
وی افزود: اگر ما این سیستمها را با اطلاعات تبعیضآمیز تغذیه کنیم، آنها رفتارهای جانبدارانهای از خود بروز خواهند داد.
به گزارش وبسایت standard.co.uk، این چیزی است که گوگل در گذشته با آن درگیر بوده است.
مثلاً چندی پیش مشخص شد که الگوریتم نژادپرستانه هوش مصنوعی تشخیص تصویر گوگل به گونهای عمل میکند که «گوریل» را روی تصاویر مربوط به افراد سیاهپوست برچسب میزند.
این موضوع با انتقادات شدید روبرو شد و گوگل وعده داد که برای جلوگیری از تکرار این خطا، اقدام فوری انجام دهد.
جن جنای (Jen Gennai) یکی دیگر از مسئولان رده بالای گوگل که پست «مدیر یادگیری ماشین اخلاقی» این شرکت را برعهده دارد، در همین رابطه به مشکل تبعیض و داوریهای یکجانبه هوش مصنوعی اشاره کرد و گفت: اگر ما بخواهیم یک فناوری جدیدی راهاندازی کنیم، باید مطمئن شویم که آن فناوری از همان ابتدا عملکرد صحیح و مناسبی دارد.
خانم جنای هدایت یک تیم را در گوگل بر عهده دارد که موظف است محصولات و سرویسهای جدید را تحلیل و ارزیابی کند تا مطمئن شود که تمام محصولات جدید گوگل با این استانداردهای اخلاقی سازگار و همخوان است.
در حال حاضر هر محصول جدیدی که در گوگل راهاندازی شود، با دقت مورد تست و بررسی خانم جنای و تیم او قرار میگیرد و جنبههای مختلف آن از قبیل مسائل فنی، حقوقی، محرمانگی و اجتماعی ارزیابی میشود.
از جمله راهکارهای گوگل برای مقابله با چالش تبعیض میتوان به بهبود پایگاههای داده و درک نحوه عملکرد الگوریتمهای مورد استفاده اشاره کرد، هر چند با همه این تلاشها، گوگلیها بر این باورند که تبعیض فرایندی است که از خود انسانها نشات میگیرد.
جن جنای میگوید ما همگی دچار تبعیض و تعصب هستیم… ولی این بدان معنا نیست که ما برای متوقف کردن این روند نتوانیم هیچ کاری انجام دهیم.