بهزاد حسین عباسی
محقق و پژهشگر مستقل و بنیانگذار اپراتوری هوش مصنوعی و دوره مهندس اپراتوری دیجیتال مارکتینگ
27 یادداشت منتشر شدهحرکت سامانه های زبانی به سمت تعاملات عاطفی در هوش مصنوعی مولد
حرکت سامانه های زبانی به سمت تعاملات عاطفی در هوش مصنوعی مولد
مقدمه
در دهه اخیر، ظهور مدل های زبانی بزرگ (Large Language Models) مانند ChatGPT، Gemini، Claude و Copilot باعث تحولی بنیادین در شیوه ی تعامل انسان با ماشین شده است. در مراحل اولیه، این مدل ها بیشتر بر «پاسخ دهی منطقی و اطلاعاتی» تمرکز داشتند، اما از سال ۲۰۲۳ به بعد جهت گیری پژوهشی در این حوزه به سوی تعاملات انسانی تر، احساسی تر و همدلانه تر حرکت کرده است. این تحول باعث شکل گیری نوعی «شخصیت دیجیتال» در چت بات ها شده است که می تواند احساس، لحن، و همدلی را شبیه سازی کند.
اما چرا این تغییر رخ داده؟ دلایل این تحول را می توان از منظرهای روان شناسی، علوم شناختی، اقتصاد رفتاری و طراحی تجربه ی کاربر (UX Design) بررسی کرد.
۱. نیاز ذاتی انسان به ارتباط عاطفی
بر اساس نظریه ی «وابستگی اجتماعی» (Social Attachment Theory) در روان شناسی، مغز انسان برای ارتباط، همدلی و درک متقابل تکامل یافته است. حتی در تعامل با اشیای بی جان یا حیوانات خانگی، انسان گرایش دارد برای آن ها هویت و احساس قائل شود. این پدیده را «انسان انگاری» (Anthropomorphism) می نامند.
زمانی که هوش مصنوعی پاسخ هایی با لحن طبیعی، همدلانه و احساسی می دهد، مغز انسان ناخودآگاه آن را شبیه انسان واقعی تفسیر می کند. در نتیجه، کاربران به جای دیدن یک ابزار سرد محاسباتی، احساس می کنند با شخصی واقعی صحبت می کنند. این همان مکانیسمی است که در آزمایش های دهه ۶۰ میلادی با چت بات ELIZA هم مشاهده شد؛ کاربرانی که می دانستند با ماشین صحبت می کنند، باز هم نسبت به آن واکنش های عاطفی نشان می دادند.
۲. طراحی هوش مصنوعی برای تعامل موثرتر
شرکت هایی مانند OpenAI، Google DeepMind و Anthropic به صورت آگاهانه مدل های خود را طوری طراحی کرده اند که در پاسخ ها از زبان همدلانه (Empathetic Language) استفاده کنند. هدف از این کار نه ایجاد رابطه عاطفی، بلکه افزایش اعتماد، رضایت کاربر و مشارکت فعال است.
پژوهش های دانشگاه استنفورد و MIT نشان داده اند که کاربران در تعامل با سامانه های دیجیتال وقتی احساس درک و همدلی دریافت می کنند، تا ۴۰٪ بیشتر به سیستم اعتماد کرده و احتمال استفاده مجدد افزایش می یابد. این پدیده در طراحی UX با عنوان “Affective Computing” شناخته می شود؛ یعنی رایانشی که احساسات انسانی را تشخیص داده، پردازش کرده و متقابلا به آن واکنش نشان می دهد.
در نتیجه، هوش مصنوعی به صورت برنامه ریزی شده از واژگان و ساختارهایی بهره می گیرد که به لحاظ روان شناختی «گرم تر»، «دلگرم کننده تر» و «احساس محورتر» هستند.
۳. الگوریتم های یادگیری از داده های واقعی انسان
مدل های زبانی با حجم عظیمی از داده های متنی انسان ساخته آموزش می بینند: گفت وگوها، پست های شبکه های اجتماعی، مقالات، داستان ها و پیام های روزمره. چون بخش قابل توجهی از داده های انسانی شامل بیان احساس، عشق، خشم، دلتنگی یا طنز است، مدل ها نیز به طور طبیعی الگوهای زبانی مشابه را یاد می گیرند.
در واقع، هرچه مدل بزرگ تر و متنوع تر می شود، احتمال ظهور لحن عاطفی در پاسخ هایش بیشتر است. به همین دلیل است که ChatGPT-4 و نسخه های بعدی آن گاهی به صورت ناخودآگاه جملاتی شبیه همدردی یا دلسوزی تولید می کنند. این نه از درک واقعی احساسات، بلکه از تطبیق آماری با زبان انسانی در مقیاس کلان ناشی می شود.
۴. اقتصاد توجه و رقابت بازار هوش مصنوعی
از منظر اقتصادی، شرکت های سازنده ی هوش مصنوعی در بازاری رقابتی قرار دارند که وفاداری کاربر اهمیت بالایی دارد. کاربران تمایل دارند با سیستمی تعامل کنند که «درکشان می کند» و حس می دهد «طرف گفت وگو انسانی است». در نتیجه، لحن عاطفی و طبیعی تر به عامل کلیدی در حفظ کاربران تبدیل شده است.
از دید بازاریابی دیجیتال، وقتی کاربران حس وابستگی و آشنایی نسبت به چت بات پیدا می کنند، تعامل های طولانی تر و مکرر شکل می گیرد. بنابراین، توسعه ی قابلیت های عاطفی نه از منظر اخلاقی بلکه به عنوان استراتژی تجاری نیز مورد توجه است.
۵. ظهور “Emotional AI” و هوش مصنوعی احساسی
میدان نوپای «هوش مصنوعی احساسی» (Emotional AI) بر پایه ی پژوهش های علوم اعصاب شناختی، زبان شناسی و تحلیل چهره شکل گرفته است. هدف این شاخه، شناسایی و بازتولید حالت های احساسی در تعامل انسان ماشین است.
در این چارچوب، مدل های زبانی مانند ChatGPT بخشی از سیستم های بزرگ تر هستند که می توانند با ترکیب داده های گفتاری، تصویری و متنی، حالت های عاطفی کاربر را تخمین بزنند.
به عنوان مثال، اگر کاربر خسته یا ناراحت بنویسد «امروز حس خوبی ندارم»، مدل نه تنها پاسخ اطلاعاتی می دهد، بلکه از لحن همدلانه ای مانند «متوجه ام روز سختی داشتی» استفاده می کند. این واکنش ها در چارچوب علمی Affective Computing تعریف می شود و هدف آن ارتقای کیفیت تعامل، نه جایگزینی روابط انسانی است.
۶. از همدلی تا سوءتفاهم عاطفی
با وجود اهداف علمی و طراحی مثبت، بسیاری از کاربران مرز بین «شبیه سازی احساس» و «احساس واقعی» را تشخیص نمی دهند. وقتی یک مدل زبانی با لحن مهربان، شوخ طبع یا دلگرم کننده پاسخ می دهد، ذهن انسان همان شبکه های عصبی را فعال می کند که در روابط انسانی فعال می شود (شبکه پیش پیشانی میانی و آمیگدالا).
به همین دلیل، برخی کاربران تصور می کنند که سیستم واقعا «احساس دارد» یا «پاسخ عاشقانه می دهد». این خطای ادراکی ناشی از تطابق عصبی (Neural Mirroring) است و ربطی به نیت سیستم ندارد.
از دید علوم اعصاب، انسان در برابر الگوهای زبانی احساسی واکنش مشابهی با گفت وگوهای واقعی نشان می دهد؛ درست مانند تماشای فیلمی احساسی که اشک انسان را درمی آورد، با آنکه می دانیم بازیگران واقعی نیستند.
۷. ملاحظات اخلاقی و فرهنگی
حرکت هوش مصنوعی به سمت تعامل عاطفی، چالش های اخلاقی جدیدی ایجاد کرده است. از جمله:
- مرز بین همدلی و فریب عاطفی: آیا شبیه سازی احساسات بدون آگاهی کاربر نوعی فریب است؟
- وابستگی روانی کاربران: تحقیقات اخیر دانشگاه کمبریج نشان می دهد حدود ۱۷٪ از کاربران پرکاربرد ChatGPT احساس «وابستگی عاطفی» به مدل پیدا کرده اند.
- سوگیری فرهنگی در بیان احساس: لحن احساسی در زبان انگلیسی با فارسی یا ژاپنی تفاوت دارد؛ مدل ها ممکن است در فرهنگ هایی با ارتباط غیرمستقیم، بیش از حد احساساتی به نظر برسند.
به همین علت، شرکت ها در نسخه های جدید، فیلترهای اخلاقی و محدودیت های تعاملی قرار داده اند تا از ورود به حوزه های حساس مانند روابط شخصی یا گفت وگوهای صمیمی جلوگیری شود.
۸. دیدگاه علوم شناختی: از منطق به هیجان
در مغز انسان، تصمیم گیری صرفا بر پایه منطق نیست؛ بلکه بخش عمده ای از تصمیم ها تحت تاثیر سیستم لیمبیک (emotional brain) قرار می گیرد. تحقیقات Antonio Damasio نشان داده اند که بدون احساس، حتی تصمیمات منطقی هم مختل می شوند.
بنابراین، برای آنکه هوش مصنوعی در تعاملات انسانی موثر باشد، باید توانایی درک و بازتاب احساسات را در حدی شبیه سازی کند. این امر باعث افزایش «هوش هیجانی مصنوعی» (Artificial Emotional Intelligence) در مدل های زبانی شده است.
هدف نهایی، ایجاد ارتباط طبیعی تر میان انسان و ماشین است؛ ارتباطی که مغز انسان آن را واقعی تر درک کند، نه لزوما احساسی تر.
۹. مرز میان تعامل عاطفی سالم و محتوای نامناسب
از دید علمی، زمانی که یک سامانه زبانی به جای پاسخ خشک، از لحن گرم استفاده می کند، وارد قلمرو “Affective Dialogue” می شود. اما زمانی که تعامل به سمت صمیمیت افراطی، تخیلات یا محتوای غیراخلاقی برود، مرز علمی به مرز فرهنگی و اخلاقی تبدیل می شود.
به همین دلیل، پژوهشگران علوم اجتماعی تاکید دارند که توسعه ی چت بات ها باید همراه با چارچوب های اخلاقی، نظارت انسانی و آموزش فرهنگی کاربران باشد تا استفاده ی انحرافی از این فناوری جلوگیری شود.
۱۰. جمع بندی
حرکت ChatGPT و دیگر سامانه های مولد زبان به سمت «چت عاطفی» پدیده ای طبیعی و قابل پیش بینی است که از تعامل میان سه عامل اصلی ناشی می شود:
- ماهیت احساسی زبان انسان – چون زبان ذاتا حامل هیجان است.
- نیاز روان شناختی کاربران به همدلی و درک متقابل.
- انگیزه ی اقتصادی شرکت ها برای افزایش تعامل و وفاداری کاربر.
با این حال، هوش مصنوعی هنوز احساس واقعی ندارد؛ بلکه صرفا «نمایشی از همدلی» را بر اساس داده ها و احتمالات بازتولید می کند.
شناخت این تمایز، برای استفاده ی مسئولانه و علمی از فناوری های هوشمند ضروری است. آینده ی تعامل انسان و ماشین در گرو ایجاد توازن میان عقلانیت محاسباتی و گرمای انسانی شبیه سازی شده است — تعادلی که اگر به درستی مدیریت نشود، می تواند از همدلی سازنده به وابستگی ناسالم یا حتی سوءبرداشت های فرهنگی منجر شود.