ملاحظات اخلاقی استفاده از هوش مصنوعی در نظام سلامت

سال انتشار: 1403
نوع سند: مقاله ژورنالی
زبان: فارسی
مشاهده: 96

متن کامل این مقاله منتشر نشده است و فقط به صورت چکیده یا چکیده مبسوط در پایگاه موجود می باشد.
توضیح: معمولا کلیه مقالاتی که کمتر از ۵ صفحه باشند در پایگاه سیویلیکا اصل مقاله (فول تکست) محسوب نمی شوند و فقط کاربران عضو بدون کسر اعتبار می توانند فایل آنها را دریافت نمایند.

این مقاله در بخشهای موضوعی زیر دسته بندی شده است:

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

JR_PAHM-23-5_010

تاریخ نمایه سازی: 26 مهر 1403

چکیده مقاله:

سردبیر محترم، هوش مصنوعی به منظور مدیریت و پیش بینی اطلاعات کاربرد دارد. با این وجوداز چالشهای اخلاقی کار با هوش مصنوعی نباید غافل شد. اختلال در عدالت اجتماعی، سوگیری در برنامه ها، شفافیت پذیری و توضیح پذیری، ایمنی داده ها ،احترام به کرامت انسانی افراد و رضایت آگاهانه، خطا و جبران خسارت از جمله چالش های اخلاقی هوش مصنوعی است. ممیزی اخلاقی، ایجاد سیاست گذاری اخلاقی و دسترسی کلیه جوامع به هوش مصنوعی و ضمانت اجرای جهانی حفاظت از داده ها واجرای آنها از جمله راه کار های مناسب برخورد با چالش های اخلاقی هوش مصنوعی محسوب میشود. یکی از پیشرفته ترین  فن آوریهای اخیر، هوش مصنوعی است که به کمک بشر آمده تا اطلاعات و داده های عظیم را مدیریت نموده و نمایی از آینده موضوعات را پیش بینی نماید. هوش مصنوعی که در واقع استفاده از کامپیوتر برای مدل کردن رفتار هوشمند با حداقل مداخله انسانی است، دغدغه های اخلاقی زیادی را نیز به ذهن متبادر می کند که باید مورد نظر قرار گیرند...

نویسندگان

فاطمه رحمتی

Health Research Center, Lifestyle Research Institute, Baqiyatullah University of Medical Sciences (AJ), Tehran, Iran

جنت مشایخی

Spiritual Health Research Center,Lifestyle Institute, Baqiyatallah University of Medical Sciences, Tehran, Iran

مراجع و منابع این مقاله:

لیست زیر مراجع و منابع استفاده شده در این مقاله را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود مقاله لینک شده اند :