تعصب در داده ها و تاثیر آن بر تصمیمات هوش مصنوعی

29 اردیبهشت 1404 - خواندن 5 دقیقه - 42 بازدید


مقدمه

هوش مصنوعی امروزه در بسیاری از جنبه های زندگی ما نقش دارد — از تصمیم گیری های مالی گرفته تا استخدام، اعطای وام، تشخیص جرم و حتی پیشنهادات شبکه های اجتماعی. اما در پس ظاهر بی طرف و عقلایی هوش مصنوعی، یک مشکل قدیمی ولی جدیدتر از همیشه وجود دارد: تعصب موجود در داده ها .

بسیاری فکر می کنند که هوش مصنوعی، به دلیل عدم دخالت انسان، بی طرف است. اما در عمل، الگوریتم ها فقط آنقدر بی طرف هستند که داده هایی که با آنها آموزش دیده اند، بی طرف باشند. وقتی داده ها وازگونه ای(biased) هستند، هوش مصنوعی هم وازگونه می شود.

چرا داده ها ممکن است تعصب داشته باشند؟

داده ها، انعکاسی از دنیای واقعی هستند. و دنیای واقعی، متاسفانه، همیشه عادلانه نیست. بنابراین، اگر داده هایی که ما به یادگیری ماشین می دهیم، ناهمواری های جامعه را منعکس کنند، الگوریتم ها هم آن ناهمواری ها را تقویت یا تکرار خواهند کرد.

به عنوان مثال:

  • اگر داده های استخدامی قدیمی نشان دهند که مردان بیشتر از زنان استخدام شده اند، یک سیستم AI ممکن است به طور خودکار، رزومه زنان را کمتر ارزیابی کند.
  • اگر یک سیستم پلیس پیشگوییی (Predictive Policing) بر اساس گزارش های قبلی آموزش دیده باشد که در آن افراد یک قومیت خاص بیشتر تحت نظارت بوده اند، مدل، این الگو را تقویت می کند و دوباره همان گروه را در لیست خطرپذیرترها قرار می دهد.

این تعصب ها نه به خاطر هوشمندی مدل است، بلکه به خاطر گمراه کننده بودن داده های آموزشی .

چطور تعصب وارد داده ها می شود؟

  1. تعصب تاریخی : داده های گذشته ممکن است نابرابری هایی را ثبت کرده باشند که امروز نامناسب یا غیرقانونی است.
  2. تعصب انتخابی : داده های جمع آوری شده ممکن است از گروه های خاصی از جامعه بیشتر باشد و گروه های دیگر را نادیده بگیرد.
  3. تعصب اندازه گیری : گاهی معیارهای اندازه گیری در داده ها، به طور ناخودآگاهانه، گروه های مختلف را به صورت ناعادلانه مقایسه می کنند.
  4. تعصب تفسیری : نحوه تفسیر و برچسب زنی داده ها می تواند تحت تاثیر دیدگاه های فرهنگی و اجتماعی قرار گیرد.

تاثیر تعصب در تصمیمات هوش مصنوعی

وقتی یک الگوریتم با داده های تعصبی آموزش دیده باشد، تصمیماتش هم تعصب آلود خواهد بود. مثلا:

  • سیستم های وام دهی : ممکن است افراد از گروه های قومی خاص را ریسک بالا تشخیص دهند، فقط به این دلیل که در گذشته به این گروها امتیاز اعتباری کمتری داده شده.
  • تشخیص چهره : برخی سیستم ها در تشخیص چهره زنان یا افراد رنگین پوست ضعیف تر عمل می کنند — نه به خاطر اشکال فنی، بلکه به خاطر داده های آموزشی ناهمگن.
  • تصمیمات پزشکی : اگر داده های بالینی بیشتر از مردان سفیدپوست گرفته شده باشند، سیستم های AI ممکن است در تشخیص بیماری در گروه های دیگر، خطای بیشتری داشته باشند.

این موضوع نه تنها عدم عدالت را تقویت می کند، بلکه اعتماد عمومی به فناوری هوش مصنوعی را هم کاهش می دهد.

چطور می توان این مشکل را کاهش داد؟

  1. جمع آوری داده های متنوع تر : اطمینان از اینکه تمام گروه های جامعه در داده ها نمایندگی شوند.
  2. شناسایی و حذف تعصب از داده ها (Bias Detection & Mitigation) : استفاده از روش های تحلیلی برای شناسایی و تعدیل تعصب در داده.
  3. شفافیت در تصمیم گیری : سیستم های هوش مصنوعی باید بتوانند توضیح دهند چرا یک تصمیم خاص را گرفته اند.
  4. شرکت دادن گروه های متنوع در طراحی : حضور گروه های متنوع در تیم های توسعه، کمک می کند تا از دیدگاه های محدود جلوگیری شود.
  5. استانداردسازی اخلاقیات AI : توسعه راهنمای اخلاقی برای استفاده از داده ها و الگوریتم ها

یک نگاه به آینده

با گسترش فناوری هوش مصنوعی، ناپدید کردن تعصب از داده ها، یکی از مهم ترین مسائل اخلاقی و عملی در طراحی سیستم های هوشمند خواهد بود. دولت ها، شرکت های فناوری و جامعه دانشگاهی باید با هم همکاری کنند تا از این تعصب ها جلوگیری کنند و هوش مصنوعی را عادلانه تر کنند.

تا زمانی که داده های آموزشی ما ناهمگن و ناعادلانه باشند، سیستم های هوش مصنوعی هم نمی توانند عادلانه عمل کنند. تعصب در داده، تعصب در تصمیم است.

منابع

Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial facial analysis. Proceedings of the Conference on Fairness, Accountability and Transparency .

O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group.

Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys , 54(6), 1–35.

Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.