پرش به محتوا

هوش مصنوعی هم تبعیض قائل شد؟ پاسخ ضعیف‌تر به کاربران ایرانی

هوش مصنوعی هم تبعیض قائل شد؟ پاسخ ضعیف‌تر به کاربران ایرانی

جهان صنعت نیوز، بر اساس پژوهشی از دانشگاه Massachusetts Institute of Technology (MIT)، مدل‌های زبانی بزرگ از جمله GPT-4، Claude 3 Opus و Llama 3 در برخی شرایط به کاربرانی با تسلط پایین‌تر به زبان انگلیسی یا سطح تحصیلات کمتر، پاسخ‌هایی با کیفیت و دقت پایین‌تر ارائه می‌کنند.

محققان در این تحقیق با افزودن بیوگرافی فرضی کاربران (شامل سطح تحصیلات، میزان تسلط به انگلیسی و کشور محل سکونت) به سؤالات علمی و عمومی، عملکرد مدل‌ها را ارزیابی کردند. نتایج نشان داد دقت پاسخ‌ها برای کاربران غیرانگلیسی‌زبان و کم‌تحصیلات به شکل محسوسی کاهش می‌یابد.

در بررسی کشور مبدأ نیز مشخص شد عملکرد مدل Claude 3 Opus در مواجهه با کاربران اهل ایران، در مقایسه با کاربران آمریکایی، ضعیف‌تر بوده است. همچنین این مدل در برخی موارد از پاسخ دادن به سؤالات کاربران غیرانگلیسی‌زبان خودداری کرده یا لحنی نامناسب و تحقیرآمیز به کار برده است.

پژوهشگران هشدار داده‌اند با گسترش قابلیت‌های شخصی‌سازی در چت‌بات‌ها، خطر تقویت سوگیری‌های پنهان و تشدید نابرابری اطلاعاتی افزایش می‌یابد؛ مسئله‌ای که می‌تواند اعتماد عمومی به ابزارهای هوش مصنوعی را با چالش مواجه کند.

منبع: دیجیاتو

نتایج یک مطالعه جدید نشان می‌دهد برخی مدل‌های پیشرفته هوش مصنوعی در پاسخ به کاربران غیرآمریکایی، از جمله ایرانی‌ها، دقت پایین‌تر و رفتار تبعیض‌آمیزتری دارند.

جهان صنعت نیوز، بر اساس پژوهشی از دانشگاه Massachusetts Institute of Technology (MIT)، مدل‌های زبانی بزرگ از جمله GPT-4، Claude 3 Opus و Llama 3 در برخی شرایط به کاربرانی با تسلط پایین‌تر به زبان انگلیسی یا سطح تحصیلات کمتر، پاسخ‌هایی با کیفیت و دقت پایین‌تر ارائه می‌کنند.

محققان در این تحقیق با افزودن بیوگرافی فرضی کاربران (شامل سطح تحصیلات، میزان تسلط به انگلیسی و کشور محل سکونت) به سؤالات علمی و عمومی، عملکرد مدل‌ها را ارزیابی کردند. نتایج نشان داد دقت پاسخ‌ها برای کاربران غیرانگلیسی‌زبان و کم‌تحصیلات به شکل محسوسی کاهش می‌یابد.

در بررسی کشور مبدأ نیز مشخص شد عملکرد مدل Claude 3 Opus در مواجهه با کاربران اهل ایران، در مقایسه با کاربران آمریکایی، ضعیف‌تر بوده است. همچنین این مدل در برخی موارد از پاسخ دادن به سؤالات کاربران غیرانگلیسی‌زبان خودداری کرده یا لحنی نامناسب و تحقیرآمیز به کار برده است.

پژوهشگران هشدار داده‌اند با گسترش قابلیت‌های شخصی‌سازی در چت‌بات‌ها، خطر تقویت سوگیری‌های پنهان و تشدید نابرابری اطلاعاتی افزایش می‌یابد؛ مسئله‌ای که می‌تواند اعتماد عمومی به ابزارهای هوش مصنوعی را با چالش مواجه کند.

منبع: دیجیاتو

شناسه :
572217
لینک کوتاه :

لینک کپی شد

نتایج یک مطالعه جدید نشان می‌دهد برخی مدل‌های پیشرفته هوش مصنوعی در پاسخ به کاربران غیرآمریکایی، از جمله ایرانی‌ها، دقت پایین‌تر و رفتار تبعیض‌آمیزتری دارند.

منبع: ​​جهان صنعت نیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *