آئین نامه پژوهش با هوش مصنوعی؛ نقدی بر ریل گذاری پرابهام آینده علمی کشور و آسیب شناسی یک سند کلیدی...

13 آذر 1404 - خواندن 31 دقیقه - 27 بازدید
آیین نامه پژوهش با هوش مصنوعی؛ نقدی بر ریل گذاری پرابهام آینده علمی کشور و آسیب شناسی یک سند کلیدی...





 باسمه تعالی


 نقد علمی راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش وزارت علوم (آبان ۱۴۰۴)


آیین نامه پژوهش با هوش مصنوعی؛ نقدی بر ریل گذاری پرابهام آینده علمی کشور و آسیب شناسی یک سند کلیدی...


پیش از مطالعه این گزارش، لازم است بدانید که پای یک سند سرنوشت ساز در میان است؛ «راهنمای پژوهش با هوش مصنوعی» که قرار است چارچوب گذار فعالیت های علمی آینده در کشور باشد. این یادداشت به قلم یک پژوهشگر بین رشته ای ومتخصص در حوزه هوش مصنوعی، پژوهش، حقوق و فقه اسلامی، با نگاهی نقادانه و مستند، زوایای پنهان این آیین نامه را واکاوی کرده و نشان می دهد چگونه نبود متخصصان واقعی و بی توجهی به استانداردهای بین المللی می تواند مسیر علم را منحرف کند. اگر می خواهید بدانید چه کسانی این سند را نوشته اند، چرا ساختار آن جای نگرانی دارد و چه پیامدهایی برای آینده پژوهش در انتظار ماست، این گزارش را از دست ندهید.

.....................................................................................................................................................................................

از همان لحظات ابتدایی که نسخه اولیه این آیین نامه را ورق زدم، احساسی سنگین از مسئولیت با من همراه شد. این سند تنها یک راهنما برای استفاده از ابزارهای هوش مصنوعی نیست؛ بلکه نقطه شروعی برای قانون گذاری در این حوزه است و آینده پژوهش و تولیدات علمی کشور را شکل می دهد. اگر این ریل گذاری بر پایه هایی سست و ناآگاهانه بنا شود، چگونه می توان انتظار داشت قطار علم و فناوری به مقصدی روشن برسد؟!

به عنوان کسی که سال ها در مرز میان هوش مصنوعی، پژوهش وحقوق تحصیلات، مطالعات و پژوهشهای فراوانی نمودم وحتی قوانین سایر کشورها را در ارتباط با هوش مصنوعی و پژوهش بررسی کرده ام، به جامعه ی علمی کشور عرض می کنم که نباید نسبت به عواقب چنین سیاست هایی بی تفاوت ماند. کوچک ترین لغزش در تدوین مقررات می تواند فضای دانشگاهی و پژوهشی را برای نسل های آتی محدود یا حتی مسموم کند. به همین دلیل، این نقد را با دغدغه ای عمیق و نگاهی علمی نگاشتم، تا اساتید و پژوهشگران محترم پیش از آن که دیر شود بدانند در کدام مسیر قرار گرفته ایم و چگونه می توان از آینده علمی کشور محافظت کرد.

این نگرانی وقتی شدت می گیرد که به ترکیب تدوین کنندگان و مسئولان این سند نگاه کنیم. اسامی ذکرشده در آغاز سند عمدتا شامل مدیران دولتی وزارت متبوع و اعضای هیئت علمی حوزه های کاملا بی ربط به آئین نامه همچون؛ شیمی، زیست شناسی دارویی، مهندسی برق و صنایع، منابع طبیعی و تربیت بدنی است! و جالب تر اینجاست که حضور متخصصان هوش مصنوعی، علوم داده، حقوق فناوری، فلسفه علم و نمایندگان جامعه مدنی که بتوانند ابعاد انسانی و حقوقی این فناوری را به درستی درک و بازتاب دهند به طور کامل نادیده گرفته شده است! این نقص آشکار در ترکیب تیم تدوین زنگ خطری جدی است؛ زیرا افرادی که سابقه ای در تحلیل پیامدهای اجتماعی و قانونی فناوری های پیشرفته ندارند، مسئول تدوین سندی شده اند که قرار است مسیر آینده علمی کشور را تعیین کند. حتی اگر این عزیزان در رشته های خود اساتید وپژوهشگرانی موفق و بنام باشند، این واقعیت به هیچ وجه اجازه نمی دهد در حوزه ای که تخصص و تحصیلات مرتبط ندارند اظهار نظر یا قانون گذاری کنند؛ قاعده ای که مورد تاکید همه اساتید و صاحب نظران است و بدیهی می نماید که هر کس باید در حوزه تخصص خود سخن بگوید، چه برسد به آن که برای دیگران آیین نامه و قانون وضع کند. چگونه می توان انتظار داشت چنین ترکیبی بتواند سندی اصولی و بی خطا برای مقررات گذاری AI تدوین کند؟! چه کسی مسئول انتخاب این تیم بوده؟ و به چه مبنا و قاعده ای؟ این وضعیت نه تنها به ضعف علمی و حقوقی آیین نامه دامن می زند، بلکه آینده پژوهش و نوآوری را به دست کسانی می سپارد که از پیچیدگی های فنی، اخلاقی و قانونی این حوزه بی خبرند و موجب نگرانی عمیقی می شود که مبادا مسیر علم کشور به وسیله سیاست گذاری های ناآگاهانه منحرف شود و فضایی غیرقابل اعتماد برای محققان و دانشگاهیان به وجود آید.

افزون بر این، سند مورد اشاره با شعار «توانمندسازی نه محدودسازی» آغاز می شود و می خواهد راهنمایی برای استفاده از ابزارهای هوش مصنوعی در پژوهش باشد، اما در پشت این شعارها مجموعه ای از مقررات ضعیف و غیرعلمی نهفته است. در همان مقدمه آمده که هدف، ارائه نقطه شروعی برای آشنایی با ابزارهای هوش مصنوعی و مسائل اخلاقی است، اما به سرعت روشن می شود که این نقطه شروع بدون تکیه بر معیارهای دقیق، اسناد بالادستی ملی و جهانی و تجربیات عملی تدوین شده است. این بی توجهی به استانداردهای بین المللی مانند اصول پنج گانه OECD—که شامل رشد فراگیر و پایدار، احترام به حقوق بشر و ارزش های دموکراتیک، شفافیت و قابل توضیح بودن، امنیت و پایداری، و مسئولیت پذیری است—و توصیه نامه های یونسکو درباره رعایت حقوق بشر، عدالت و حفاظت از محیط زیست، به معنای نادیده گرفتن شفافیت، مسئولیت پذیری و رعایت عدالت در استفاده از هوش مصنوعی است. چنین رویکردی، به جای ایجاد اعتماد و همگرایی، دل نگرانی و تردید را در دل جامعه علمی می نشاند و ضرورت بازنگری عمیق در این سند سرنوشت ساز را برجسته می کند.

در ادامه به بررسی دقیق آئین نامه می پردازیم؛ در بخش تعاریف، سند تلاش می کند مفاهیمی چون هوش مصنوعی، یادگیری ماشین، یادگیری عمیق، پردازش زبان طبیعی و حتی اصطلاح مبهم «هوش مصنوعی عمومی» را توضیح دهد، اما این تعاریف بیشتر به توضیح لغوی شبیه است تا تعریف حقوقی و اجرایی. در تعریف هوش مصنوعی، سند صرفا به این نکته اشاره می کند که AI عمومی می تواند اقداماتی انجام دهد که تا پیش از این فقط توسط انسان امکان پذیر بود، و انواعی از اصطلاحات مانند سیستم های یادگیری ماشین و یادگیری عمیق را برمی شمرد؛ اما ملاک مشخصی برای تشخیص حد و مرز AI و تمایز بین انواع سیستم ها ارائه نمی شود. از این گذشته، سند اصطلاح «هوش مصنوعی عمومی» را تعریف کرده اما رابطه آن با «هوش مصنوعی مولد»، «سیستم های آزاد» یا «مدل های زبانی بزرگ» مشخص نشده است؛ این ابهام موجب می شود که مجریان نتوانند در عمل تشخیص دهند که کدام ابزار تحت کدام مقرره قرار می گیرد. نبود دسته بندی مبتنی بر ریسک (که درحال حاضر در مقررات اتحادیه اروپا و بسیاری از چارچوب های بین المللی وجود دارد و برای این موارد درنظر گرفته شده است)، باعث می شود همان مقررات برای موارد کم خطر و پرخطر اعمال شود و نتیجه آن سردرگمی و اعمال محدودیت های غیرضروری در پژوهش است.

مشکل اصلی دیگر به فقدان طبقه بندی ریسک و چارچوب قانونی برای دسته بندی ابزارها مربوط می شود. در قوانین اتحادیه اروپا و اصول OECD AI Principles، سیستم های هوش مصنوعی بر اساس سطح خطر به چند دسته تقسیم می شوند: حداقل خطر، خطر بالا، و ممنوع. کاربردهای کم خطر مانند ابزارهای کمک کننده در مطالعه و جستجو، ضوابطی ساده دارند؛ در حالی که کاربردهای با خطر بالا (مانند گزینش نیروی انسانی در مراکز علمی و دانشگاهی {و به تبع سایر مراکز دولتی}، تصمیم گیری پزشکی، سیستم های عدالت کیفری) نیازمند نظارت دقیق و ارزیابی های اخلاقی و حقوقی هستند. در سند مورد نظر نه چنین دسته بندی وجود دارد، نه حتی اشاره ای به اینکه چه استفاده هایی ممکن است کاملا ممنوع باشد. همه چیز در یک قالب واحد قرار گرفته و فقط این توصیه آمده که برای داده های محرمانه و سری باید از «ابزارهای تاییدشده» استفاده شود؛ اما این که کدام ابزارها و بر اساس چه معیارها و شاخصه هایی تایید می شوند، کاملا نامشخص است. حذف این دسته بندی یعنی قانون گذاران آگاهانه یا از روی سهل انگاری تفاوت میان خطرات بالقوه را نادیده گرفته اند و این مسئله می تواند به اعمال مقررات سختگیرانه در پروژه های بی خطر یا بالعکس، بی ضابطه شدن تصمیم های پرخطر منجر شود.

در بحث امنیت و ابزارهای مجاز، آیین نامه می گوید استفاده از سرویس های تاییدنشده نقض سیاست محسوب می شود و خرید ابزارها باید پس از بررسی امنیتی انجام گیرد. این جمله در ظاهر درست به نظر می رسد، اما هیچ معیار وضابطه ی عملی برای ارزیابی امنیت، حریم خصوصی، حفاظت از داده، شفافیت الگوریتمی و میزان تعصبات وجود ندارد. سند مشخص نمی کند که کمیته یا واحد فناوری بر اساس چه سنجه هایی «ابزار مطمئن» را تشخیص می دهد. وحتی اساسا این کمیته ها چگونه تشکیل میشوند؟ چه کسی این کمیته را تشکیل میدهند؟ و چه افرادی؟ به چه تعدادی؟ وبا چه خصوصیات؟ و رزومه؟ و سابقه ای؟ عضو این کمیته ها خواهند شد؟ و چه کسی؟ یا نهادی؟ مسئول انتخاب و گزینش این افراد در سراسر دانشگاه ها، پژوهشگاه ها و غیره خواهد بود؟ و... به عنوان مثال در قوانین یونسکو، بر انجام «ارزیابی تاثیر اخلاقی» و تحلیل آثار بر حقوق بشر، عدالت اجتماعی و محیط زیست تاکید شده است ؛ اما در این آیین نامه هیچ سخنی از چگونگی و نحوه ارزیابی اثرات اخلاقی و زیست محیطی نیست. زمانی که صحبت از «ابزار آفلاین یا ایزوله» می شود، این ابهام وجود دارد که آیا منظور مدل های بومی است؟ یا مدل های بین المللی که در یک محیط محدود اجرا می شوند؟ به علاوه، سند هیچ راهبردی برای توسعه مدل های بومی یا متن باز ارائه نمی کند و مشخص نمی کند که چگونه می توان از انتشار داده های محرمانه به بیرون جلوگیری کرد. نتیجه این ابهام ها آن است که پژوهشگران ناچار می شوند برای دریافت خدمات مورد نیاز خود با حدس و گمان ابزارهایی را به کار گیرند و سپس در معرض اتهام قرار گیرند.

یکی از معدود بخش های نسبتا مفید سند، طبقه بندی داده ها در پیوست پایانی است که داده ها را به چهار سطح عمومی، حساس یا داخلی، محرمانه و سری تقسیم می کند. اما همین بخش نیز آن چنان سطحی و غیر دقیق است که بیش از آنکه راهگشا باشد، باعث دردسر پژوهشگران می شود. سند توصیه می کند نام و مکان از داده های حساس حذف شود اما هیچ اشاره ای به اصول حریم خصوصی مانند حداقل سازی داده و ناشناس سازی برگشت ناپذیر ندارد. در استانداردهای اتحادیه اروپا و یونسکو، تاکید می شود که حذف نام و مکان به تنهایی کافی نیست و باید از روش های رمزنگاری و حذف ویژگی های شناسایی کننده بهره برد. همچنین این سند نسبت به حقوق مالکیت معنوی و ضرورت احترام به حق مولفان بی اعتناست؛ در حالی که ناشران بین المللی به طور جدی بر این موضوع تاکید می کنند. عدم وجود سازوکار کنترل دسترسی و ثبت فعالیت ها برای داده های حساس و محرمانه، در عمل می تواند منجر به سوءاستفاده از داده های پژوهشگران و سوژه های انسانی شود.

مسئله مسئولیت پذیری و تصمیم گیری از دیگر نقاط ضعف اساسی این سند است. آیین نامه به طور صریح استفاده از هوش مصنوعی برای تصمیم گیری نهایی در فرایند داوری مقالات را ممنوع می داند. این منع کردن، که از سیاست های ناشران بزرگ الگو گرفته شده است، اقدامی معقول به نظر می آید چون ابزارهای مولد می توانند اطلاعات نادرست و جانبدارانه تولید کنند. اما این ممنوعیت فقط به داوری مقالات محدود شده است. هیچ اشاره ای به سایر تصمیم های حساس آموزشی و پژوهشی نیست: پذیرش و رد دانشجو، اعطای بورسیه، استخدام هیئت علمی، ارزیابی عملکرد، اعطای گرنت و موارد مشابه. چرا نباید استفاده از AI برای گزینش دانشجویان یا تصمیم های مالی ممنوع باشد؟ این بخش با یادداشت چند کلمه، مسئولیت نهایی را بر عهده داور یا ویراستار می گذارد ولی دریغ از ارائه نمودن حتی یک سازوکار مناسب، برای پاسخگویی، جبران خسارت یا رسیدگی به شکایات. چنان چه تصمیم گیری ناشی از AI به خطایی جدی یا تبعیض منجر شود، این آیین نامه هیچ راهی برای اصلاح یا جبران در نظر نگرفته است. ضمن آنکه هیچ اشاره ای هم به پیوست های احتمالی آتی نمی کند.

سند در هر بخش حوزه ای خود از برخی مجوزها و ممنوعیت ها سخن می گوید اما این مقررات به قدری پراکنده و گاه متناقض هستند که پژوهشگر را سردرگم می کند. در حوزه علوم انسانی، استفاده از AI برای تحلیل محتوا، ترجمه و خلاصه سازی مجاز است، اما تولید آثار خلاقانه بدون ذکر استفاده از AI تخلف محسوب می شود. این بند می پذیرد که خروجی ها باید توسط پژوهشگر ارزیابی شوند، اما توجهی به سوگیری زبانی و فرهنگی ملی_مذهبی ندارد. مدل های زبانی بزرگ اغلب مبتنی بر داده های زبان انگلیسی و فرهنگ غرب هستند و می توانند ناخودآگاه دیدگاه های حاشیه ای را نادیده بگیرند یا تحریف کنند. سند نه راهکاری برای شناسایی و کاهش این سوگیری ها ارائه می دهد نه پژوهشگر را به ارزیابی انتقادی زبانی تشویق می کند. در علوم اجتماعی هم وضعیت مشابهی وجود دارد. سند می گوید از AI برای تحلیل داده های پیمایشی و شبکه های اجتماعی می توان استفاده کرد، اما باید از تولید پاسخ های جعلی پرسش نامه خودداری شود. پرسش این است که چگونه و با چه روشی پژوهشگر می تواند صحت یا جعلی بودن پاسخ ها را در سیستم های پیچیده AI تشخیص دهد؟ هیچ روشی برای نظارت یا ممیزی ارائه نشده است. همچنین از تاثیر سوگیری های جنسیتی، نژادی و طبقاتی در داده های آموزش مدل سخنی به میان نمی آید، در حالی که تحقیقات نشان داده اند مدل های زبانی به راحتی این سوگیری ها را تقویت می کنند. ضمن این که کشف هرگونه سوگیری ماشینی بر عهده پژوهشگر گذاشته شده، حال آن که این کار اساسا از وظایف نهادهای تنظیم گر است و نه مسئولیت فرد و پژوهشگر.

در علوم پایه، آیین نامه اجازه می دهد که از هوش مصنوعی برای تحلیل داده های آزمایشگاهی و مدل سازی استفاده شود، مشروط بر اینکه نتایج قابل بازتولید باشند. منع تولید داده جعلی و تحریف نتایج البته منطقی است. اما سند هیچ اشاره ای به انتشار کد و داده به صورت متن باز و شفافیت الگوریتمی ندارد. در مقررات بین المللی، تاکید می شود که پژوهشگران باید الگوریتم ها، داده های ورودی و معیارهای ارزیابی دقت را گزارش کنند تا دیگران بتوانند نتایج را تکرار نمایند. نبود این الزامات در آئین نامه ایرانی می تواند به تولید نتایج غیرشفاف و غیرقابل بررسی منجر شود، در حالی که ادعای بازتولید وجود دارد.

در حوزه مهندسی و فنی، سند استفاده از AI برای بهینه سازی فرآیندها و تحلیل داده ها را می پذیرد، اما به طور کلی تولید کد یا طراحی مدار توسط AI را بدون بازبینی انسانی ممنوع اعلام کرده است. امروزه بسیاری از تیم ها از ابزارهای مولد کد برای تسریع توسعه استفاده می کنند و پس از آن بازبینی انسانی انجام می دهند. در کنار این ممنوعیت، باید معیارهای مشخصی برای ارزیابی صحت و امنیت کد ارائه شود و مسئولیت نهایی بر عهده مهندس بیان می شد. همچنین به تفصیل بیان نشده که چه تفاوتی بین «تولید کد» و «تحلیل کد» یا «تکمیل کد» وجود دارد و این امر می تواند به سلیقه ای عمل کردن کمیته ها منجر شود.

بخش هنر و معماری سند بیان می کند که هنرمندان می توانند از AI در خلق آثار استفاده کنند، به شرط آنکه نقش AI را مشخص کنند. اما سند هیچ نظامی برای رعایت حقوق مولفان اصلی یا افرادی که آثارشان برای آموزش مدل ها استفاده شده ارائه نمی دهد. در بسیاری از سیستم های مولد تصویر و موسیقی، آثار هنرمندان بدون اجازه در مجموعه های داده استفاده می شود؛ این موضوع در جهان مناقشه برانگیز است و حتی پرونده های حقوقی متعددی علیه شرکت ها طرح شده است. عدم توجه به این بحث و نبود راهکاری برای حفاظت از هنرمندان ایرانی نشان دهنده بی اعتنایی تدوین کنندگان به مالکیت فکری است. همچنین سند به نحوه تعیین مالکیت مشترک در آثاری که توسط انسان و AI تولید می شوند نمی پردازد و هنرمندان را در برابر دعاوی احتمالی بی دفاع می گذارد.

در بخش پزشکی و سلامت، سند اجازه می دهد از AI برای تحلیل تصاویر پزشکی و طراحی درمان ها استفاده شود، به شرط آنکه متخصص انسانی نتیجه را تایید کند. این موضوع در ظاهر معقول است، ولی مسئولیت بزرگ تری به متخصصین تحمیل می کند بدون آنکه لوازم قانونی و اجرایی آن روشن شده باشد. در کشورهای پیشرفته، هر نوع استفاده از AI در تشخیص بیماری باید مطابق با قوانین سختگیرانه حفظ حریم خصوصی بیماران، قوانین داده های سلامت و مقررات دستگاه های پزشکی باشد. سند ایرانی هیچ اشاره ای به این قوانین جهانی (مانند GDPR و Convention 108+ برای حفاظت از داده های سلامتی) ندارد و صرفا می گوید باید مجوز تحقیق و داده ها دریافت شود. به علاوه، به ضرورت انجام مطالعات بالینی، آزمون های اعتبارسنجی مستقل و انتشار پروتکل ها توجه نشده است؛ بنابراین اگر مدلی دقت پایینی داشته باشد یا تبعیض ایجاد کند، هیچ مکانیزم حمایتی پیش بینی نشده است.

یکی از بخش های به ظاهر مثبت سند، آموزش و توانمندسازی است که برگزاری دوره های آموزش سواد هوش مصنوعی برای اعضای هیئت علمی، دانشجویان و کارکنان را توصیه می کند. با این حال، سند هیچ برنامه و محتوای مشخصی (ولو بصورت کلی) برای این آموزش ها پیشبینی نمی کند. صرف بیان «سواد هوش مصنوعی» کافی نیست؛ باید مشخص شود که بصورت کلی چه محتوایی در این دوره ها تدریس می شود، چگونه به آموزش اخلاق، شفافیت و مسئولیت پذیری پرداخته می شود، و چگونه افراد یاد می گیرند خروجی های مدل ها را به صورت انتقادی ارزیابی کنند. به علاوه، توسعه دهندگان سیاست آموزشی باید به ایجاد محیطی برای تبادل تجربیات، طرح چالش ها و بررسی خطاهای پیش آمده در استفاده از AI توجه کنند. بدون این ساختار، دوره ها به سطحی نگری و تکرار بدیهیات فروکاسته خواهد شد.

سازوکار نظارت، گزارش دهی و رسیدگی به تخلفات که در سند پیش بینی شده نیز خالی از اشکال نیست. تشکیل کمیته های تخصصی اخلاق و هوش مصنوعی و استفاده از فرم های خوداظهاری می تواند گامی به سمت شفافیت باشد، اما جزئیات این کمیته ها نامشخص است؛ ترکیب آنها، سازوکار انتخاب اعضا، و میزان استقلال شان مشخص نشده و امکان اعمال نفوذ و تبعیض و اعمال سلیقه وجود دارد و حتی در صورت اعتراض احتمالی به حکم سلیقه ای این کمیته ها، جهت احقاق حق پژوهشگر هیچ پیشبینی خاصی تدارک دیده نشده، که این خطای فاحشی است. همچنین سند می گوید خروجی ابزارهای تشخیص متن AI نمی تواند به تنهایی مبنای اثبات تخلف باشد؛ این حرف صحیح است زیرا پژوهش ها نشان داده اند که این ابزارها دقت پایینی دارند و ممکن است متون معتبر را به اشتباه «کپی» یا «تولید شده توسط AI» تشخیص دهند. با این حال، سند راهکاری جایگزین ارائه نمی دهد و صرفا به امکان دفاع اشاره می کند. این وضعیت پژوهشگران را دچار نگرانی می کند، زیرا مشخص نیست چه معیارهایی برای محکوم شدن به کار گرفته می شود و چه نهاد مستقلی بر تصمیم کمیته ها نظارت می کند وبه شکایات احتمالی رسیدگی می نماید و خود این موضوعات جای خالی یک متخصص حقوق فناوری را در جمع تدوین کنندگان سند، بخوبی نشان می دهد.

از منظر حقوقی و علمی، مهم ترین نقص این آئین نامه بی توجهی به اصول جهانی و بین رشته ای است. توصیه نامه یونسکو درباره اخلاق هوش مصنوعی هفت اصل اساسی را مطرح می کند؛ از جمله احترام به حقوق بشر، حاکمیت قانون، دموکراسی و ارزش های فرهنگی، ترویج عدالت و عدم تبعیض، حفاظت از محیط زیست و تضمین شفافیت، قابل توضیح بودن، مسئولیت پذیری و مشارکت چند ذی نفع. در حالی که سند ایرانی به جز اشاره ای کلی به اخلاق، هیچ یک از این اصول را به صورت نظام مند به کار نمی گیرد. اصول OECD AI Principlesنیز بر رشد فراگیر، حقوق بشر، شفافیت، امنیت و پاسخگویی تاکید دارند. همچنین تحقیقات علمی در سال های اخیر اهمیت شناسایی و کاهش سوگیری ها در داده های آموزشی، شفافیت الگوریتمی، گزارش پذیری و مسئولیت حقوقی در استفاده از AI را برجسته کرده اند. عدم استناد به این منابع علمی و عملی، سند را از اعتبار بین المللی و قابلیت استناد محروم می کند.

یکی دیگر از ضعف های بنیادین سند، تصور ایستا از فناوری هوش مصنوعی است. آیین نامه به گونه ای نوشته شده است که گویی ابزارهای AI مجموعه ای از محصولات ثابت و قابل کنترل هستند؛ در حالی که فناوری AI با سرعتی سرسام آور تکامل می یابد، مدل های جدید در بازه زمانی کوتاه منتشر می شوند و قابلیت های آن ها پیوسته در حال افزایش است. نبود یک سازوکار پویا برای به روزرسانی مقررات، تطبیق با فناوری های جدید و جمع آوری بازخورد از اساتید دانشگاه وپژوهشگران باعث خواهد شد که این سند ظرف مدت کوتاهی منسوخ شود. هرچند سند به بازنگری دوره ای اشاره کرده است، اما زمان بندی و نحوه انجام آن مشخص نیست و تجربه گذشته نشان داده است که اسناد مشابه سال ها بدون اصلاح باقی می مانند. کما اینکه جامعه ی علمی و پژوهشی ایران سالهاست که در انتظار دیدن یک آئین نامه (در ارتباط با هوش مصنوعی و پژوهش و آموزش) بودند و حالا که پس از سالها تعلل در انجام این وظیفه، این سند مملو از اشکال منتشر شد، خیال متولیان امر برای سالها راحت خواهد بود که یک سند بالادستی برای این منظور نگارش شده است.

علاوه بر این، ترکیب تدوین کنندگان و مسئولان ذکر شده در ابتدای سند نه تنها متنوع ، تخصص گرا و بین رشته ای نیست، بلکه بیشتر شامل مدیران دولتی و اعضای هیئت علمی حوزه های غیرمرتبط است. حضور متخصصان حوزه های هوش مصنوعی، مطالعات اجتماعی، علوم داده، فلسفه اخلاق، حقوق فناوری در کمیته تدوین کننده به چشم نمی خورد. این موضوع یکی از عوامل اصلی ضعف محتوا است، زیرا کسانی که در زمینه های علمیAI و حقوقی هوش مصنوعی تجربه ندارند تلاش کرده اند سندی جامع تدوین کنند و نتیجه کار، ترکیبی ناموزون از توصیه های کلی، ممنوعیت های بعضا غیرمنطقی و عباراتی مبهم و موارد در نظر نگرفته ی مهم فراوانی شده است.

در نهایت باید گفت که سند «راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش» در ایران بیش از آنکه بتواند به عنوان نقشه راهی برای توسعه مسئولانه AI تلقی شود، به مانعی تبدیل می شود که پژوهشگران را از استفاده از فناوری بازمی دارد و امکان شکوفایی پژوهش های بین رشته ای را کاهش می دهد. کمبود تعریف های دقیق، فقدان طبقه بندی ریسک، نبود معیارهای شفاف برای تایید ابزارها، نادیده گرفتن حقوق داده ها و مالکیت فکری، محدود کردن نوآوری در برخی حوزه ها و نبود سازوکار ارزیابی وپاسخگویی و حتی تنبیهات و ضمانت اجرا، نشان می دهد که این سند بیشتر به دنبال باز کردن مسئولیت از سر است تا ایجاد یک چارچوب حمایتی و توسعه محور. برای اصلاح این وضعیت، لازم است که اصول بین المللی مانند توصیه نامه های یونسکو و OECD AI Principlesو قوانین اتحادیه اروپا به عنوان پایه مطالعات درنظر گرفته شده، ایرانیزه و بومی شود، دسته بندی مبتنی بر ریسک و ارزیابی اثرات اخلاقی اجرا شود، معیارهای شفاف برای تایید ابزارها تعریف گردد، برنامه های آموزش چندسطحی با محتوای اخلاقی و حقوقی تدوین شود، سازوکارهای نظارت مستقل و پاسخگویی ایجاد گردد، و نمایندگان رشته های مختلف و جامعه مدنی در فرایند تدوین مشارکت فعال داشته باشند. تنها با چنین اصلاحات بنیادینی است که می توان امیدوار بود سندی واقعا «توانمندساز» تدوین شود؛ سندی که به جای ایجاد ترس و محدودیت، به پژوهشگران انگیزه دهد تا از هوش مصنوعی برای حل مسائل علمی و اجتماعی بهره بگیرند، به شرط آن که اصول اخلاقی، حقوقی و ارزش های انسانی به درستی رعایت شوند.

یکی از جلوه های بارز ناپختگی سند در بخش تعاریف این است که حتی پرکاربردترین واژگان حوزه هوش مصنوعی مانند «مدل مولد»، «مدل زبانی بزرگ»، «یادگیری نظارت شده»، «یادگیری تقویتی» و «سازمان دهی مبتنی بر عامل» به طور دقیق تعریف نشده اند. در ادبیات روز دنیا تفاوتی آشکار میان مدل های مولد و مدل های پیش بینی گر وجود دارد؛ مدل های مولد مانند GPT یا Diffusion قادرند متن، تصویر و داده ی جدید تولید کنند، در حالی که مدل های پیش بینی گر برای برون یابی روندهای موجود کاربرد دارند. نبود این تمایز ممکن است موجب شود که برخی ابزارهای تحلیلی ساده نیز به خطا در زمره «هوش مصنوعی عمومی» قرار گیرند و به طور نابجا مشمول محدودیت شوند. همچنین اصولا عباراتی مانند «هوش مصنوعی عمومی» به طور رایج به معنای سیستم هایی است که قادر به انجام هر نوع وظیفه شناختی در سطح انسان هستند. چنین سیستمی در حال حاضر وجود ندارد و استفاده از این مفهوم در آئین نامه زمینه را برای سوء برداشت فراهم می کند. به علاوه، مفهوم «ابزار تشخیصی هوش مصنوعی » که در سند آمده است، بدون توضیح دقیق درباره عملکرد، حوزه های کاربرد و محدودیت هایش معرفی شده و این موجب می شود که پژوهشگران نتوانند تفاوت بین یک ابزار صرفا سنجشی و یک سامانه تصمیم گیر را درک کنند. در استانداردهای جهانی معمولا طبقه بندی ابزارها بر پایه اهداف و قابلیت توضیح پذیری و میزان مداخله انسانی صورت می گیرد و هر طبقه مقررات متفاوتی دارد؛ این نکته در این سند فراموش شده است.

هرچند که سند از طبقه بندی ریسک سخن نمی گوید، اما در حال حاضر قانون هوش مصنوعی اتحادیه اروپا و دستورالعمل های OECD AI Principlesمجموعه ای از مثال های واقعی برای رده بندی ریسک ارائه کرده اند. به عنوان نمونه، در دسته «خطر بالا» سیستم هایی قرار می گیرند که در آموزش و پرورش، استخدام، خدمات مالی یا اجرای قانون به کار می روند، زیرا تصمیم های آن ها بر سرنوشت افراد اثر مستقیم دارند. چنین سیستم هایی باید ثبت شوند، تحت نظارت نهادهای مستقل قرار گیرند و ارزیابی های جامع از منظر تبعیض، دقت و امنیت روی آنها انجام شود. دسته «خطر محدود» شامل سیستم های تعاملی مانند چت بات ها یا سیستم های توصیه گر محتوا است که باید صرفا شفاف سازی کنند که مخاطب با یک ماشین در تعامل است و حق داشته باشد ارتباط را قطع کند. دسته «خطر پایین» به ابزارهای پشتیبان مانند برنامه های ترجمه یا خلاصه سازی تعلق دارد که تنها توصیه هایی ارائه می کنند و تصمیم گیری نهایی با انسان است. در این آئین نامه، هیچ اشاره ای به این تفاوت ها نیست و صرفا برای «داده محرمانه» حساسیت نشان داده شده است. فقدان چنین رده بندی ریسک باعث می شود که نهادهای دانشگاهی نتوانند به صورت نظام مند انتخاب کنند که برای هر پروژه چه میزان ارزیابی یا نظارت لازم است و این امر احتمال بروز آسیب های ناشی از تصمیم های ناشیانه را بالا می برد.

سند در بخش تایید ابزارها به صراحت اعلام می کند که استفاده از ابزارهای بدون تایید ممنوع است، اما سازوکار تایید ابزارها به طور جدی ضعیف است. در عرصه بین الملل، فرایند تایید شامل ارزیابی امنیت سایبری، پایش پایگاه داده های آموزشی برای شناسایی محتوای جانبدارانه، تحلیل قابلیت توضیح پذیری مدل و بررسی پیامدهای زیست محیطی است. کمیته های نظارتی باید گزارش هایی از اثرات احتمالی ارائه دهند و همچنین شاخص های عملکرد را به صورت عمومی منتشر کنند تا پژوهشگران بدانند ابزار در چه زمینه هایی ضعف دارد. در این سند نه از شفافیت در ارزیابی سخن رفته و نه از انتشار گزارش ها. استفاده از واژه هایی کلیدی قانونی بدون ذکر هیچ معیار و شاخص عینی، نشان می دهد که فرصت برای فساد، برخورد سلیقه ای و عدم پاسخگویی باز است. به علاوه، سند هیچ گونه مکانیزمی برای گرفتن بازخورد از کاربران درباره عملکرد و اشکالات ابزارها تعریف نکرده است، در حالی که به روزرسانی مستمر بر اساس بازخورد یکی از شرط های موفقیت هر سیستم فناوری است.

کاربست مسئولیت پذیری در حوزه هوش مصنوعی تنها به معنی اعلام مسئولیت انسانی نیست؛ به این معنی است که زنجیره ای از مسئولیت ها به وضوح تعریف شوند و نه تنها کاربران، بلکه تولیدکنندگان و توسعه دهندگان ابزارها نیز مسئول پیامدهای محصولاتشان باشند. در این سند فقط گفته شده که داور یا ویراستار مسئول تصمیم گیری است، اما توسعه دهندگان سیستم های AI مورد استفاده در داوری که ممکن است به دلیل داده های ناقص یا الگوریتم های ضعیف نتایج غلط ارائه دهند، هیچ مسئولیتی نمی پذیرند. در نظام های حقوقی پیشرفته، بخشی از مسئولیت متوجه تولیدکننده است و قوانین ایمنی محصول شامل هوش مصنوعی نیز می شود. علاوه بر این، مسئولیت پذیری مستلزم وجود سازوکاری برای اعتراض و جبران خسارت است. اگر پژوهشگری به علت یک خطای سیستم AI رد یا متهم به تخلف شود، باید بتواند از طریق یک فرایند شفاف اعتراض کند، پرونده اش توسط کمیته ای مستقل بررسی شود و در صورت اثبات خطای سیستم، خسارت های معنوی و مالی جبران گردد. این سازوکارها در آیین نامه غایب است.

در مجموعه انتقادات فوق، نکته مشترک آن است که آیین نامه به جای آنکه سندی راهبردی و آینده نگر باشد، بیشتر شبیه مجموعه ای از توصیه های پراکنده و ابهام برانگیز است که می تواند مانع پیشرفت پژوهش و نوآوری شود. تدوین کنندگان باید با استفاده از تجارب بین المللی و خرد جمعی جامعه علمی داخلی و خارجی، سندی جامع، شفاف و انعطاف پذیر تدوین کنند که نه تنها از سوءاستفاده ها جلوگیری کند، بلکه دست پژوهشگران را برای استفاده خلاقانه از هوش مصنوعی باز بگذارد. این امر مستلزم مشارکت فعال ذی نفعان، متخصصان عرصه هوش مصنوعی و حقوقدانان خبره جهت ایجاد بسترهای گفت وگو، بازنگری مداوم و تاکید بر ارزش هایی است که همسو با استانداردهای جهانی باشد. تنها در این صورت است که می توان هم از فرصت های بی نظیر هوش مصنوعی بهره برد و هم از جامعه و افراد در برابر خطرات آن محافظت نمود.



 دکتر مهدی طریقت

رئیس اندیشکده و پردیس هوش مصنوعی

 آبان 1404