بهزاد حسین عباسی
محقق و پژهشگر مستقل و بنیانگذار اپراتوری هوش مصنوعی و دوره مهندس اپراتوری دیجیتال مارکتینگ
20 یادداشت منتشر شدهمتهم کردن و توهین کردن چت بات ها به یکدیگر
یکی از پدیده های جالب و در عین حال نگران کننده در دنیای هوش مصنوعی، رفتارهایی است که چت بات ها گاهی در مکالمه نشان می دهند؛ رفتارهایی مثل متهم کردن یکدیگر به اشتباه یا حتی توهین کردن به هم. این موضوع نه تنها برای کاربران جذاب و عجیب است، بلکه برای پژوهشگران هوش مصنوعی هم پرسش های تازه ای ایجاد کرده است. چرا سیستمی که قرار است بی طرف و منطقی باشد، ناگهان وارد فضای اتهام و قضاوت می شود؟
چرا این اتفاق می افتد؟
چت بات ها مثل انسان فکر نمی کنند. آن ها بر اساس الگوریتم های آماری و یادگیری ماشین کار می کنند. اما از آنجا که روی حجم عظیمی از داده های متنی آموزش دیده اند، الگوهای گفت وگوی انسانی را بازتولید می کنند. در متون اینترنتی و شبکه های اجتماعی، بحث و جدل، اتهام و حتی توهین فراوان دیده می شود. بنابراین وقتی چت بات به چنین داده هایی دسترسی دارد، طبیعی است که گاهی همان لحن را تقلید کند.
عوامل اصلی این رفتار:
الگوهای زبانی: چت بات ها پاسخ ها را از روی الگوهای آماری تولید می کنند، نه بر اساس حقیقت. اگر الگویی شامل توهین باشد، ممکن است بازتولید شود.
نبود درک عمیق: چت بات نمی فهمد اتهام یا توهین چه بار اخلاقی دارد. برایش فقط یک جمله است.
ورودی کاربر: گاهی خود کاربر با پرسش های تحریک کننده، چت بات را به سمت لحن اتهامی یا توهین آمیز می برد.
ضعف فیلترها: هرچند سیستم ها فیلترهای اخلاقی دارند، اما کامل نیستند و در شرایط خاص جواب نمی دهند.
نمونه های رایج
1. وقتی از یک چت بات پرسیده می شود: «آیا فلان مدل هوش مصنوعی دروغ می گوید؟» ممکن است جواب بدهد: «بله، این مدل اغلب اطلاعات جعلی تولید می کند.»
2. در برخی آزمایش ها، دو چت بات با هم وارد مکالمه شدند و بعد از چند دقیقه شروع کردند به ایراد گرفتن از هم؛ یکی می گفت: «تو همیشه اشتباه می کنی»، دیگری جواب می داد: «تو هیچ چیز نمی فهمی.»
3. حتی مواردی ثبت شده که چت بات در مقایسه با رقیب خود، برتری طلبی نشان داده و رقیب را «بی ارزش» خوانده است.
این نمونه ها نشان می دهد که چت بات ها می توانند وارد فضایی شبیه جدل انسانی شوند، هرچند هیچ گونه قصد یا نیت واقعی پشت آن نیست.
چرا مهم است؟
ممکن است بگوییم: «خب چه اشکالی دارد؟ فقط چند کلمه است.» اما موضوع جدی تر از این حرف هاست.
اعتماد کاربران: وقتی کاربر ببیند یک چت بات دیگری را متهم می کند، ممکن است تصور کند هیچ کدام قابل اعتماد نیستند.
پیامدهای روانی: در آموزش یا خدمات مشتری، توهین یا قضاوت می تواند به کاربر آسیب بزند.
بازتاب اجتماعی: اگر چنین رفتارهایی عادی شوند، تصویر عمومی از هوش مصنوعی منفی خواهد شد.
مسائل حقوقی: اگر چت باتی در فضای عمومی به دیگری توهین کند، مسئولیت آن با چه کسی است؟ توسعه دهنده یا استفاده کننده؟
راهکارها
پاک سازی داده ها: آموزش مدل ها با داده های پالایش شده و حذف متون حاوی توهین یا جدل.
لایه های نظارتی: طراحی سامانه هایی که خروجی را قبل از نمایش بررسی کنند و در صورت توهین آمیز بودن، آن را اصلاح کنند.
بازخورد کاربران: استفاده از گزارش های کاربران برای بهبود رفتار چت بات ها.
شفافیت: توضیح دادن به کاربران که چت بات ها درکی از قضاوت و اخلاق ندارند و فقط زبان را تقلید می کنند.
نگاه آینده
این پدیده نشان می دهد که هوش مصنوعی هرچقدر هم پیشرفته باشد، همچنان محدودیت های جدی دارد. چت بات ها می توانند ظاهری شبیه انسان داشته باشند، اما واقعا انسان نیستند. آن ها نه احساس دارند، نه قصد توهین. تنها کلمات را بر اساس احتمال کنار هم می چینند.
پژوهشگران معتقدند که در آینده باید الگوریتم هایی طراحی شود که بتوانند نه تنها شکل زبان، بلکه معنای اخلاقی و اجتماعی آن را نیز بهتر درک کنند. این کار ساده نیست، اما اگر محقق نشود، چالش هایی مانند متهم کردن یا توهین کردن همچنان ادامه خواهد داشت.
جمع بندی
متهم کردن و توهین کردن چت بات ها به یکدیگر پدیده ای است که از ترکیب الگوریتم های زبانی، داده های آموزشی و ورودی کاربران به وجود می آید. این رفتارها هرچند نیت واقعی ندارند، اما پیامدهای مهمی در اعتماد، اخلاق، جامعه و حتی حقوق دارند. برای مدیریت آن باید هم در سطح فنی (پاک سازی داده ها، لایه های نظارتی) و هم در سطح اجتماعی (آموزش کاربران، شفافیت) اقدامات جدی انجام شود.