بهزاد حسین عباسی
محقق و پژهشگر مستقل و بنیانگذار اپراتوری هوش مصنوعی و دوره مهندس اپراتوری دیجیتال مارکتینگ
16 یادداشت منتشر شدهراستی آزمایی چت بات ها با هوش مصنوعی؛ گامی ضروری برای اعتماد دیجیتال
راستی آزمایی چت بات ها با هوش مصنوعی؛ گامی ضروری برای اعتماد دیجیتال
در چند سال اخیر، چت بات ها به یکی از مهم ترین محصولات دنیای هوش مصنوعی تبدیل شده اند. از پاسخ به پرسش های کاربران در سایت ها گرفته تا تولید محتوا، ترجمه، مشاوره و حتی گفت وگوهای عاطفی، چت بات ها در همه جا حضور دارند. اما در کنار این جذابیت، یک دغدغه ی اساسی هم پدید آمده است: آیا می شود به حرف های یک چت بات اعتماد کرد؟
راستی آزمایی یا همان fact-checking در دنیای انسان ها مفهومی آشناست؛ رسانه ها و نهادهای مختلف با بررسی منابع و شواهد، درستی یا نادرستی اطلاعات را می سنجند. حالا با رشد سریع مدل های زبانی مثل ChatGPT، Claude، Gemini و Llama، نیاز به راستی آزمایی ماشینی هم احساس می شود. چون این مدل ها گاهی اطلاعاتی تولید می کنند که درست به نظر می رسد، اما در واقع اشتباه یا حتی خیالی است. به این پدیده در علوم هوش مصنوعی می گویند «توهم زبانی» یا Hallucination.
چرا چت بات ها اشتباه می کنند؟
چت بات های امروزی بر پایه مدل های زبانی بزرگ (Large Language Models) ساخته شده اند. این مدل ها از روی حجم عظیمی از داده های متنی آموزش می بینند — از کتاب ها و مقالات گرفته تا شبکه های اجتماعی و گفت وگوهای روزمره. آن ها الگوهای زبانی را یاد می گیرند، اما درک واقعی از جهان ندارند.
به همین دلیل وقتی با پرسشی روبه رو می شوند که در داده هایشان پاسخ مستقیم ندارد، سعی می کنند پاسخی شبیه به واقعیت بسازند. این پاسخ ممکن است از نظر زبانی کاملا درست باشد، اما از نظر factual یا واقعی، اشتباه است.
برای مثال، اگر از چت بات بپرسید «اولین رئیس جمهور ایران چه کسی بود؟»، معمولا پاسخ درستی می دهد. اما اگر بپرسید «چه کسی در سال ۱۳۶۱ وزیر فناوری اطلاعات بود؟» ممکن است اسمی بسازد که اصلا وجود خارجی ندارد. چون در داده هایش چنین موردی نبوده و سیستم با ترکیب دانسته های ناقص، یک جواب منطقی اما ساختگی تولید کرده است.
راستی آزمایی ماشینی یعنی چه؟
هدف از راستی آزمایی ماشینی، ایجاد سیستم هایی است که بتوانند درستی پاسخ های چت بات ها را بسنجند. این کار معمولا با ترکیب چند لایه از فناوری انجام می شود:
- تحلیل زبانی پاسخ:
الگوریتم بررسی می کند که پاسخ شامل ادعاهای قابل بررسی هست یا نه. مثلا اگر گفته شود «ایران در سال ۲۰۲۲ سومین کشور تولیدکننده نانوفناوری بود»، این جمله شامل یک ادعای قابل راستی آزمایی است. - جست وجوی شواهد:
سیستم با استفاده از موتورهای جست وجو یا پایگاه های داده معتبر، به دنبال مدارک و منابعی می گردد که ادعا را تایید یا رد کند. - مقایسه معناشناختی:
مدل های برداری یا ترنسفورمرها، شباهت معنایی بین پاسخ چت بات و شواهد یافت شده را می سنجند. اگر فاصله معنایی زیاد باشد، احتمال اشتباه بالا می رود. - صدور برچسب اطمینان (Confidence Score):
در نهایت، یک نمره یا درصد برای اعتماد به پاسخ تولید می شود؛ مثلا “درستی این جمله با اطمینان ۸۵٪ تایید شد”.
در برخی سامانه ها، این فرآیند به صورت بلادرنگ در همان لحظه پاسخ دهی چت بات انجام می شود. یعنی چت بات قبل از تحویل پاسخ به کاربر، خودش آن را با منابع خارجی تطبیق می دهد.
روش های نوین راستی آزمایی
در سال ۲۰۲۴ و ۲۰۲۵، پژوهشگران مسیر تازه ای در این حوزه باز کرده اند. سه رویکرد مهم را می توان نام برد:
- راستی آزمایی با کمک مدل دوم (Verifier Model):
در این روش، یک مدل جداگانه فقط برای بررسی پاسخ ها آموزش داده می شود. مثلا ChatGPT پاسخ می دهد، اما یک مدل دیگر مثل “TrustGPT” بررسی می کند که آیا پاسخ مستند و دقیق بوده یا نه. - راستی آزمایی مبتنی بر Retrieval-Augmented Generation (RAG):
این روش در واقع چت بات را به موتور جست وجوی زنده وصل می کند. قبل از پاسخ دادن، ربات در منابع واقعی جست وجو می کند و پاسخ خود را با استناد به آن ها می نویسد. این همان کاری است که نسخه های جدیدتر GPT یا Copilot انجام می دهند. - راستی آزمایی مشارکتی با انسان ها:
در بسیاری از سامانه ها، کاربران می توانند دکمه ای مانند “Check this fact” یا “Verify” بزنند تا ربات دلیل پاسخ خود را نمایش دهد. این روش ترکیبی از اعتماد انسانی و ماشینی است و باعث می شود سیستم ها شفاف تر شوند.
چالش های راستی آزمایی چت بات ها
هرچند ایده راستی آزمایی ماشینی جذاب است، اما در عمل با چالش های متعددی روبه روست:
- ابهام در زبان طبیعی: بسیاری از جملات، دقیق یا قابل اندازه گیری نیستند. مثلا جمله ی «ایران یکی از پیشرفته ترین کشورهای خاورمیانه است» نه درست است و نه غلط به صورت مطلق؛ بلکه تفسیری است.
- تغییر سریع داده ها: جهان به سرعت تغییر می کند. اگر داده های آموزشی مدل ها به روز نباشند، راستی آزمایی هم ممکن است به اشتباه بیفتد.
- کمبود منابع فارسی: در زبان هایی مثل فارسی، پایگاه های داده معتبر برای fact-checking بسیار محدودتر از زبان انگلیسی هستند.
- سوگیری داده ها (Bias): اگر منابعی که سیستم برای راستی آزمایی استفاده می کند سوگیرانه باشند، نتایج هم سوگیرانه خواهد بود.
بنابراین، توسعه دهندگان باید میان سرعت پاسخ دهی، دقت اطلاعات و هزینه ی پردازش تعادل برقرار کنند.
اهمیت اعتماد در اکوسیستم هوش مصنوعی
چرا این موضوع تا این حد مهم است؟ چون اعتماد، ارز اصلی در دنیای هوش مصنوعی است. اگر کاربران احساس کنند چت بات ها گاهی دروغ می گویند یا اطلاعات اشتباه می دهند، تمام ارزش برندهای مبتنی بر AI از بین می رود. به همین دلیل شرکت های بزرگ در تلاش اند سیستمی طراحی کنند که هر پاسخ مدل، همراه با منبع، تاریخ و میزان اطمینان ارائه شود.
در آینده نزدیک، احتمالا گفت وگو با یک چت بات شبیه گفت وگو با یک خبرنگار یا پژوهشگر خواهد بود: هر پاسخ با لینک و مدرک همراه می شود. تصور کنید بپرسید «نرخ بیکاری ایران در سال ۱۴۰۳ چقدر بوده؟» و ربات بگوید:
«بر اساس داده های مرکز آمار ایران در گزارش خرداد ۱۴۰۳، نرخ بیکاری ۸.۲ درصد اعلام شده است (منبع: amar.org.ir).»
این یعنی گذر از چت بات "گوینده" به چت بات "مستندگو".
مسیر آینده: از راستی آزمایی تا اخلاق هوش مصنوعی
راستی آزمایی چت بات ها فقط یک موضوع فنی نیست؛ بعد اخلاقی و اجتماعی هم دارد. در واقع، این بحث بخشی از مفهومی بزرگ تر به نام «اعتمادپذیری هوش مصنوعی» (AI Trustworthiness) است.
سیستمی که نتوان صحت حرفش را بررسی کرد، هرقدر هم هوشمند باشد، نمی تواند بخشی از تصمیم گیری های انسانی شود.
در حوزه هایی مثل پزشکی، حقوق، آموزش یا اقتصاد، اگر چت بات ها اطلاعات نادرست بدهند، پیامدهای خطرناکی خواهد داشت. برای همین در کشورهای پیشرفته، نهادهای نظارتی در حال تدوین استانداردهایی برای «راستی آزمایی خودکار و شفاف سازی پاسخ های هوش مصنوعی» هستند.
در ایران هم این مسئله به تدریج مطرح می شود. با گسترش استفاده از هوش مصنوعی در دولت الکترونیک، آموزش و رسانه، نیاز به سامانه های بومی راستی آزمایی احساس می شود؛ سامانه هایی که بتوانند داده ها را از منابع داخلی مثل پایگاه مرکز آمار، بانک مرکزی یا قوانین مصوب مجلس دریافت و بررسی کنند. این موضوع، یکی از فرصت های مهم برای استارت آپ های ایرانی در سال های آینده است.
چت بات ها در حال تغییر شیوه تعامل ما با دانش هستند. آن ها دیگر فقط ابزار پاسخ گویی نیستند، بلکه شریک فکری ما در تصمیم گیری ها شده اند. اما برای اینکه این رابطه پایدار بماند، باید اعتماد شکل بگیرد.
راستی آزمایی ماشینی، همان سنگ بنای این اعتماد است؛ یعنی ربات ها نه تنها حرف بزنند، بلکه بتوانند درستی حرف شان را ثابت کنند.
آینده از آن چت بات هایی است که می گویند:
«این پاسخ را از این منبع گرفتم، و با احتمال ۹۴ درصد مطمئنم که درست است.»
و آن روز، هوش مصنوعی نه فقط یک ابزار، بلکه عضوی معتبر از اکوسیستم دانایی بشر خواهد بود.