اخبار هوش مصنوعیهوش مصنوعی

دیتاست جدید فیس بوک منتشر شد

این دیتاست تبعیض رنگ پوست در مدل های ML را از بین خواهد برد

فیسبوک به تازگی اعلام کرده است که دیتاست جدید خود را برای کمک به محققان هوش مصنوعی به صورت منبع باز منتشر کرده است . این کمپانی مجموعه داده ویدئویی منبع باز جدید ایجاد و برچسب گذاری کرده‌است، غول رسانه اجتماعی امیدوار است کار بهتری در حذف تعصب  ( سو گیری) در زمان تست عملکرد سیستم AI انجام دهد.

 این مجموعه داده مکالمات غیر نوشتاری (Casual Conversation) نام دارد که شامل ۴۵،۱۸۶ ویدئو از بیش از ۳۰۰۰ شرکت‌کننده است که یک مکالمه غیر نوشتاری دارند و شامل  جنسیت، گروه‌های سنی و  رنگ پوست می شود. در این دیتاست حاشیه نویسی در هر ویدئو باعث کمک به سطح روشنایی ویدئو شده است . این عمل به مدل های  هوش مصنوعی کمک خواهد کرد تا رنگ پوست افراد مختلف را در شرایط نور کم به راحتی اندازه گیری کنند .

بیشتر بخوانید:  فهم زبان انسان در هوش مصنوعی (NLP)

این مجموعه دیتا در حال حاظر برای محققان در دسترس است تا از آن‌ها برای آزمایش دید کامپیوتری (computer vision ) و سیستم‌های صوتی AI استفاده کنند، اگرچه نه برای توسعه الگوریتم هایشان، بلکه برای ارزیابی عملکرد یک سیستم آموزش‌دیده در دسته‌های مختلف افراد می توانند از آن استفاده کنند .

تست کردن یک بخش جدایی‌ناپذیر از طراحی یک سیستم AI است و معمولا محققان پس از آموزش الگوریتم برای بررسی دقت پیش‌بینی، مدل خود را در برابر یک مجموعه داده برچسب دار اندازه‌گیری می‌کنند.مسئله مهم این است که وقتی مجموعه داده  به اندازه کافی متنوع ساخته نشده باشد، دقت مدل تنها برای یک زیر گروه خاص معتبر خواهد شد که می‌تواند به این معنی باشد که الگوریتم در زمان مواجهه با انواع مختلف داده‌ها به خوبی کار نخواهد کرد.این کاستی‌های بالقوه به ویژه در مورد الگوریتم هایی که در مورد مردم پیش‌بینی می‌کنند قابل‌توجه است.

به عنوان مثال،  در یک مطالعه در دانشگاه MIT که بر روی محصولات طبقه‌بندی جنسیتی ارائه‌شده توسط IBM، مایکروسافت و فیس + + انجام میشد، تایج حاصله این بود که که تمام طبقه‌بندی کننده‌ها در چهره‌های مرد بهتر از چهره‌های زن عمل می‌کنند، و نتایج بهتری نیز با افراد با پوست روشن‌تر به دست آمده است. تا جایی که برخی از طبقه‌بندی کننده‌ها هنگام شناسایی چهره‌های روشن‌تر مرد تقریبا هیچ اشتباهی نکرده اند، محققان متوجه شدند که نرخ خطا برای چهره‌های تیره‌تر زن تا حدود ۳۵ % افزایش یافت.

بنابراین، مهم است که بررسی کنیم که یک الگوریتم نه تنها دقیق است، بلکه به طور مساوی در میان دسته‌های مختلف افراد کار می‌کند.تیم هوش مصنوعی فیس بوک افزوده است: انصاف در دید کامپیوتری و مدل‌های صوتی، علاوه بر آزمون‌های با دقت، برای جوامعی که در این مجموعه داده حضور دارند امری ضروری است .

بیشتر بخوانید :

مشاهده بیشتر

محمد حسن زینلی

طراح سایت - بکند دولوپر (django) - علاقه مند به نوشتن در زمینه تکنولوژی - آشنا به اصول سئو - در حال یادگیری و کسب تجربه در حوزه هوش مصنوعی

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا