مروری نظام مند بر دوراهی اخلاقی هوش مصنوعی در پرستاری

سال انتشار: 1404
نوع سند: مقاله ژورنالی
زبان: فارسی
مشاهده: 36

نسخه کامل این مقاله ارائه نشده است و در دسترس نمی باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

JR_REHA-26-4_002

تاریخ نمایه سازی: 11 آبان 1404

چکیده مقاله:

سابقه و هدف: یکی از مهم ترین چالش های اخلاقی در حوزه استفاده از هوش مصنوعی، دوراهی اخلاقی است. دوراهی اخلاقی یکی از انواع تعارضات اخلاقی است و در واقع هرگونه ناسازگاری بین انگیزه و تمایلات، روش های تربیتی، ارزش ها و عمل به تکلیف و مسئولیت های اخلاقی می باشد. چالش های اخلاقی که در استفاده از هوش مصنوعی در مراقبت پرستاری وجود دارد شامل: دوراهی های اخلاقی مربوط به حریم خصوصی بیمار و امنیت داده ها، تاثیر بر استقلال بیمار، رضایت آگاهانه، ایمنی و شفافیت در دستورالعمل ها، حریم خصوصی، پاسخگویی و شفافیت است. علاوه براین، هوش مصنوعی می تواند اثرات ناخواسته ای در ارائه مراقبت های پرستاری داشته باشد. هدف از مطالعه حاضر بررسی دوراهی اخلاقی استفاده از هوش مصنوعی در پرستاری از طریق مطالعه مرور نظام مند بود. مواد و روش ها: این مطالعه به طور مستقل توسط دو محقق بر اساس هدف تحقیق و چک لیست PRISMA انجام شد. جستجوی جامع مقالات از ابتدای ژانویه ۲۰۱۸ تا پایان آوریل ۲۰۲۵ در پایگاه های اطلاعاتی PubMed، SCOPUS، ACM Digital Library، Medline، Web of Science و همچنین موتورهای جستجوی SID و Magiran با استفاده از استراتژی MeSH و کلیدواژه های هوش مصنوعی، اخلاق و پرستاری و کلیدواژه های انگلیسی Ethics، Artificial Intelligence، Nursing و با استفاده از عملگرهای بولین انجام گردید. مراحل انجام شده شامل: طراحی سوال تحقیق، جستجو و استخراج مطالعات تحقیق، انتخاب مطالعات مرتبط، جدول بندی و خلاصه سازی اطلاعات و گزارش نتایج بود. یافته ها: از بین ۶۲ مقاله به دست آمده، در مجموع ۱۷ مقاله بررسی و در مطالعه گنجانده شدند. نتایج به دست آمده نشان داد که استفاده از هوش مصنوعی در مراقبت های سلامت، علی رغم مزایای متعدد، محدودیت ها و چالش های اخلاقی متعددی را به همراه دارد که باید به آن ها پرداخته شود، این چالش شامل: رضایت آگاهانه، ایمنی و وضوح دستورالعمل ها،حفظ حریم خصوصی داده های مرتبط با بیمار، پاسخگویی و تاثیر بر استقلال بیمار است. ایجاد دستورالعمل ها و مقررات واضح برای اطمینان از توسعه و پیاده سازی هوش مصنوعی به روشی اخلاقی و پاسخگو دارای اهمیت است. این بررسی نشان داد که سوگیری و تبعیض بیشترین توجه را به خود اختصاص داده و در ۱۴ مطالعه (۸۲٪) گزارش شده است. پس از آن، استقلال و خودمختاری پرستار با پوشش ۱۳ مطالعه (۷۶٪) در جایگاه دوم قرار دارد. مسئولیت پذیری و پاسخگویی نیز در ۱۲ مطالعه (۷۱٪) مورد توجه قرار گرفته است. موضوع شفافیت الگوریتمی و تفسیرپذیری در ۱۰ مطالعه (۵۹٪) بررسی شده است. دو محور امنیت، حریم خصوصی و حقوق بشر و اصل عدم آسیب و خیرخواهی هر کدام در ۹ مطالعه (۵۳٪) گزارش شده اند. عدالت و انصاف با ۸ مطالعه (۴۷٪) و در نهایت چارچوب های نظارتی و حقوقی با ۵ مطالعه (۲۹٪) کم ترین فراوانی را در میان فراوانی نسبی چالش ها و دوراهی های اخلاقی داشته اند.نتیجه گیری: نتایج این مطالعه نشان می دهد که چالش های اخلاقی در استفاده از هوش مصنوعی در مراقبت های پرستاری، به ویژه در مورد عدالت، استقلال، عدم ضرررسانی، سودرسانی و مسئولیت پذیری رایج هستند. بنابراین، بررسی دقیق و یافتن راه حل هایی برای برای اطمینان از اجرای اخلاقی و مسئولانه هوش مصنوعی در مراقبت های بهداشتی ضروری است.

نویسندگان

Mozhdeh Taheri Afshar

Student Research committee, Ramsar Fatemeh Zahra School of Nursing and Midwifery, Health Research Institute, Babol University of medical sciences, Babol, Iran.

Maliheh Eshaghzadeh

Department of Nursing, School of Nursing and Midwifery, Torbat Heydariyeh University of Medical Sciences, Torbat Heydariyeh, Iran.

Amirhossein Nadi

Department of Nursing, Student Research Committee, Torbat Heydariyeh University of Medical Sciences, Torbat Heydariyeh, Iran.

Mohsen Pousadeghian

Social Determinants of Health Research Center, ardabil University of Medical Sciences, ardabil, Iran .

Mostafa Rajabzadeh

Student Research Committee , School of Midwifery Nursing, Torbat Heydariyeh University of Medical Sciences, Torbat Heydariyeh , Iran.