ادغام اخلاق در توسعه هوش مصنوعی: مطالعه کیفی

سال انتشار: 1403
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 147

فایل این مقاله در 7 صفحه با فرمت PDF قابل دریافت می باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

NCMR08_008

تاریخ نمایه سازی: 27 آذر 1403

چکیده مقاله:

رشد سریع هوش مصنوعی و کاربردهای آن در مراقبت های بهداشتی فرصت های بی نظیری برای بهبود تشخیص بیماری ها و ارائه درمان های شخصی سازی شده ایجاد کرده است. با این حال، این پیشرفت ها بدون چالش نیستند. مسائل اخلاقی مانند حریم خصوصی داده ها، تعصبات الگوریتمی و مسئولیت پذیری اهمیت توجه به ابعاد اخلاقی در توسعه و کاربرد AI در حوزه سلامت را بیش از پیش نمایان می سازد. با توجه به محدودیت های موجود در پژوهش های تجربی، این مطالعه با هدف بررسی عمیق تر چالش های اخلاقی در توسعه AI برای مراقبت های بهداشتی انجام شده است.روش ها: این پژوهش کیفی از طریق مصاحبه نیمه ساخت یافته با ۴۱ متخصص هوش مصنوعی شاغل در حوزه مراقبت های بهداشتی به بررسی چالش های اخلاقی در توسعه هوش مصنوعی پرداخته است.نتایج: نتایج نشان می دهد که متخصصان بر سه محور اخلاقی تاکید دارند: ۱) لزوم تعریف اهداف روشن و اخلاقی برای توسعه سیستم های هوش مصنوعی، ۲) تعارض بین انگیزه های اقتصادی و منافع بیماران و پزشکان، و ۳) ضرورت تطبیق هوش مصنوعی با پیچیدگی های مختلف مراقبت های بهداشتی.نتیجه گیری ها: این سه محور تاکید می کند که AI باید به مراقبت های بهداشتی و ذینفعان آن سود برساند. توسعه اخلاقی AI به یک دیدگاه سیستماتیک و پیش بینی نیاز دارد که شامل ملاحظات اخلاقی و تمرکز بر کاربردهای مراقبت های بهداشتی باشد.

نویسندگان

سیدمحمدحسین حیدرزاده

دانشجوی کارشناسی ارشد رشته مدیریت آموزشی دانشگاه شهید چمران اهواز، ایران