هوش مصنوعی هم تبعیض قائل شد؟ پاسخ ضعیفتر به کاربران ایرانی
جهان صنعت نیوز، بر اساس پژوهشی از دانشگاه Massachusetts Institute of Technology (MIT)، مدلهای زبانی بزرگ از جمله GPT-4، Claude 3 Opus و Llama 3 در برخی شرایط به کاربرانی با تسلط پایینتر به زبان انگلیسی یا سطح تحصیلات کمتر، پاسخهایی با کیفیت و دقت پایینتر ارائه میکنند.
محققان در این تحقیق با افزودن بیوگرافی فرضی کاربران (شامل سطح تحصیلات، میزان تسلط به انگلیسی و کشور محل سکونت) به سؤالات علمی و عمومی، عملکرد مدلها را ارزیابی کردند. نتایج نشان داد دقت پاسخها برای کاربران غیرانگلیسیزبان و کمتحصیلات به شکل محسوسی کاهش مییابد.
در بررسی کشور مبدأ نیز مشخص شد عملکرد مدل Claude 3 Opus در مواجهه با کاربران اهل ایران، در مقایسه با کاربران آمریکایی، ضعیفتر بوده است. همچنین این مدل در برخی موارد از پاسخ دادن به سؤالات کاربران غیرانگلیسیزبان خودداری کرده یا لحنی نامناسب و تحقیرآمیز به کار برده است.
پژوهشگران هشدار دادهاند با گسترش قابلیتهای شخصیسازی در چتباتها، خطر تقویت سوگیریهای پنهان و تشدید نابرابری اطلاعاتی افزایش مییابد؛ مسئلهای که میتواند اعتماد عمومی به ابزارهای هوش مصنوعی را با چالش مواجه کند.
منبع: دیجیاتو

نتایج یک مطالعه جدید نشان میدهد برخی مدلهای پیشرفته هوش مصنوعی در پاسخ به کاربران غیرآمریکایی، از جمله ایرانیها، دقت پایینتر و رفتار تبعیضآمیزتری دارند.
جهان صنعت نیوز، بر اساس پژوهشی از دانشگاه Massachusetts Institute of Technology (MIT)، مدلهای زبانی بزرگ از جمله GPT-4، Claude 3 Opus و Llama 3 در برخی شرایط به کاربرانی با تسلط پایینتر به زبان انگلیسی یا سطح تحصیلات کمتر، پاسخهایی با کیفیت و دقت پایینتر ارائه میکنند.
محققان در این تحقیق با افزودن بیوگرافی فرضی کاربران (شامل سطح تحصیلات، میزان تسلط به انگلیسی و کشور محل سکونت) به سؤالات علمی و عمومی، عملکرد مدلها را ارزیابی کردند. نتایج نشان داد دقت پاسخها برای کاربران غیرانگلیسیزبان و کمتحصیلات به شکل محسوسی کاهش مییابد.
در بررسی کشور مبدأ نیز مشخص شد عملکرد مدل Claude 3 Opus در مواجهه با کاربران اهل ایران، در مقایسه با کاربران آمریکایی، ضعیفتر بوده است. همچنین این مدل در برخی موارد از پاسخ دادن به سؤالات کاربران غیرانگلیسیزبان خودداری کرده یا لحنی نامناسب و تحقیرآمیز به کار برده است.
پژوهشگران هشدار دادهاند با گسترش قابلیتهای شخصیسازی در چتباتها، خطر تقویت سوگیریهای پنهان و تشدید نابرابری اطلاعاتی افزایش مییابد؛ مسئلهای که میتواند اعتماد عمومی به ابزارهای هوش مصنوعی را با چالش مواجه کند.
منبع: دیجیاتو
572217
لینک کوتاه :
لینک کپی شد
نتایج یک مطالعه جدید نشان میدهد برخی مدلهای پیشرفته هوش مصنوعی در پاسخ به کاربران غیرآمریکایی، از جمله ایرانیها، دقت پایینتر و رفتار تبعیضآمیزتری دارند.
منبع: جهان صنعت نیوز