هوش مصنوعی و حریم خصوصی: تحلیل انتقادی دسترسی به داده ها و پیامدهای امنیتی چت جی پی تی و فناوری های مشابه
هوش مصنوعی (Artificial Intelligence - AI) در دهه های اخیر به یکی از مهم ترین فناوری های قرن بیست ویکم تبدیل شده است. از چت بات های ساده ای که در وب سایت های خدماتی به سوالات ابتدایی پاسخ می دهند تا سیستم های پیچیده ای که قادر به تحلیل داده های عظیم (Big Data) و پیش بینی رفتارهای انسانی هستند، هوش مصنوعی به سرعت در حال نفوذ به تمامی جنبه های زندگی بشر است. یکی از معروف ترین نمونه های این فناوری، چت جی پی تی (ChatGPT)، ساخته شده توسط شرکت اپن ای آی (OpenAI) است که به دلیل توانایی هایش در پردازش زبان طبیعی (Natural Language Processing - NLP) و تولید پاسخ های مکالمه ای، توجه جهانی را به خود جلب کرده است. اما در کنار تمام مزایای این فناوری، پرسش های جدی درباره حریم خصوصی (Privacy)، امنیت داده ها (Data Security)، و سوءاستفاده های احتمالی از اطلاعات کاربران توسط نهادهای دولتی یا غیردولتی، به ویژه در کشورهایی مانند ایالات متحده و اسرائیل، مطرح شده است. این یادداشت تحلیلی به بررسی این موضوع می پردازد که آیا ادعای شرکت های توسعه دهنده هوش مصنوعی، مانند اپن ای آی، مبنی بر عدم دسترسی به محتوای چت ها و پیام های کاربران صحت دارد؟ و آیا متادیتا (Metadata) و اطلاعات شخصی کاربران، که به طور غیرمستقیم جمع آوری می شوند، می توانند به ابزاری برای تحلیل، نظارت، و حتی تهدید یا ترور افراد توسط نهادهای خاص تبدیل شوند؟
ابتدا بیایید به ادعای شرکت هایی مانند اپن ای آی نگاه کنیم. این شرکت اعلام کرده است که به محتوای پیام ها و چت های کاربران دسترسی ندارد و تنها به داده های آماری، مانند تعداد پیام ها، برای بهبود عملکرد سیستم و ارائه گزارش های کلی استفاده می کند. این ادعا در نگاه اول منطقی به نظر می رسد. چت جی پی تی و سایر مدل های مشابه، بر اساس الگوریتم های یادگیری ماشین (Machine Learning - ML) و یادگیری عمیق (Deep Learning) طراحی شده اند که برای آموزش و بهبود عملکرد به حجم عظیمی از داده ها نیاز دارند. اما این داده ها معمولا به صورت ناشناس (Anonymized Data) جمع آوری می شوند، به این معنا که اطلاعات هویتی کاربران از داده های خام جدا می شود. اپن ای آی تاکید دارد که محتوای مکالمات کاربران رمزنگاری (Encryption) شده و حتی کارکنان این شرکت نمی توانند به آن دسترسی داشته باشند. اما آیا این ادعا تمام حقیقت را بیان می کند؟ ماجرا از جایی پیچیده تر می شود که به متادیتا و روش های غیرمستقیم جمع آوری اطلاعات نگاه کنیم.
متادیتا، که به معنای داده های توصیفی (Descriptive Data) است، اطلاعاتی است که محتوای اصلی یک پیام یا مکالمه را شامل نمی شود، بلکه به ویژگی های آن اشاره دارد. برای مثال، وقتی شما با چت جی پی تی مکالمه می کنید، متادیتا می تواند شامل اطلاعاتی مانند زمان ارسال پیام، موقعیت جغرافیایی (Geolocation) شما، نوع دستگاه (Device Type)، سیستم عامل (Operating System)، مرورگر (Browser)، آدرس آی پی (IP Address)، و حتی الگوهای استفاده شما (Usage Patterns) باشد. این اطلاعات ممکن است به نظر بی اهمیت بیایند، اما وقتی با ابزارهای تحلیل داده های پیشرفته (Data Analytics) ترکیب شوند، می توانند تصویر کاملی از هویت، رفتار، و حتی نیات یک فرد ترسیم کنند. به عنوان مثال، اگر شما از یک آی پی در تهران استفاده کنید، دستگاه شما یک گوشی سامسونگ با سیستم عامل اندروید باشد، و مرتبا درباره موضوعات سیاسی یا علمی خاصی سوال بپرسید، این اطلاعات می توانند به راحتی با داده های دیگر (مثلا از شبکه های اجتماعی یا پایگاه های داده دولتی) ترکیب شوند و هویت شما را فاش کنند.
حال پرسش این است: چه کسی به این متادیتا دسترسی دارد؟ شرکت هایی مانند اپن ای آی معمولا متادیتا را برای اهداف تجاری، مانند بهبود تجربه کاربری (User Experience - UX) یا هدف گذاری تبلیغات (Targeted Advertising)، جمع آوری می کنند. اما این داده ها می توانند به نهادهای دیگر، از جمله آژانس های اطلاعاتی (Intelligence Agencies)، فروخته یا منتقل شوند. در ایالات متحده، قوانینی مانند قانون پاتریوت (Patriot Act) به دولت این امکان را می دهند که از شرکت های فناوری بخواهند داده های کاربران را، حتی بدون اطلاع آن ها، در اختیار نهادهای امنیتی قرار دهند. به علاوه، همکاری نزدیک بین شرکت های فناوری آمریکایی و دولت این کشور، به ویژه در زمینه امنیت ملی (National Security)، موضوعی است که بارها در افشاگری های افرادی مانند ادوارد اسنودن (Edward Snowden) مطرح شده است. اسنودن در سال ۲۰۱۳ فاش کرد که آژانس امنیت ملی آمریکا (NSA) از طریق برنامه هایی مانند پریسم (PRISM) به داده های کاربران شرکت هایی مانند گوگل، اپل، و مایکروسافت دسترسی داشته است. آیا اپن ای آی از این قاعده مستثنی است؟ بعید به نظر می رسد.
اما موضوع فقط به متادیتا محدود نمی شود. حتی اگر محتوای مکالمات کاربران رمزنگاری شده باشد، الگوریتم های هوش مصنوعی می توانند از طریق تحلیل الگوهای زبانی (Linguistic Patterns) و موضوعات مورد علاقه کاربران، اطلاعاتی درباره نیات، عقاید سیاسی، یا فعالیت های آن ها استخراج کنند. برای مثال، اگر کاربری به طور مکرر درباره فناوری های نظامی یا مسائل سیاسی حساس سوال بپرسد، این اطلاعات می توانند به عنوان داده های باارزش برای نهادهای اطلاعاتی تلقی شوند. اینجاست که بحث سوءاستفاده از هوش مصنوعی برای نظارت (Surveillance) و حتی تهدید یا ترور افراد مطرح می شود.
یکی از نگرانی های اصلی این است که اطلاعات جمع آوری شده توسط هوش مصنوعی، چه به صورت مستقیم (محتوای مکالمات) و چه غیرمستقیم (متادیتا)، می توانند به نهادهای اطلاعاتی در کشورهایی مانند ایالات متحده یا اسرائیل منتقل شوند. این کشورها سابقه طولانی در استفاده از فناوری برای نظارت بر افراد و گروه ها، به ویژه در خاورمیانه، دارند. برای مثال، اسرائیل از فناوری های پیشرفته ای مانند سیستم پگاسوس (Pegasus) شرکت ان اس او (NSO Group) برای هک کردن تلفن های همراه و نظارت بر فعالان، روزنامه نگاران، و حتی سیاستمداران استفاده کرده است. این سیستم قادر است بدون اطلاع کاربر به تمامی داده های گوشی، از جمله پیام ها، تماس ها، و حتی میکروفون و دوربین، دسترسی پیدا کند. حالا تصور کنید که اطلاعات جمع آوری شده توسط چت جی پی تی یا سایر پلتفرم های هوش مصنوعی با چنین سیستم هایی ترکیب شود. نتیجه می تواند یک پرونده کامل (Profile) از هر کاربر باشد که شامل جزئیات زندگی شخصی، علایق، ارتباطات، و حتی مکان های فیزیکی او است.
این اطلاعات می توانند برای اهداف مختلفی استفاده شوند. در سطح ابتدایی، ممکن است برای تبلیغات هدفمند یا تحلیل بازار به کار روند. اما در سطحی پیچیده تر، این داده ها می توانند برای شناسایی افراد به عنوان تهدیدات بالقوه (Potential Threats) مورد استفاده قرار گیرند. در خاورمیانه، جایی که تنش های سیاسی و نظامی بین کشورهایی مانند ایران، ایالات متحده، و اسرائیل شدت دارد، این اطلاعات می توانند به ابزاری برای هدف گذاری (Targeting) افراد تبدیل شوند. برای مثال، اگر یک دانشمند ایرانی از چت جی پی تی برای تحقیق درباره فناوری های پیشرفته استفاده کند، متادیتای او (مانند مکان، زمان، و نوع سوالات) می تواند به نهادهای اطلاعاتی منتقل شود. این نهادها می توانند با استفاده از تحلیل های پیشرفته، این فرد را به عنوان یک هدف بالقوه شناسایی کرده و حتی اقدامات خطرناکی مانند ترور را برنامه ریزی کنند. نمونه های تاریخی این موضوع کم نیستند. ترور دانشمندان هسته ای ایران در دهه های گذشته، که برخی معتقدند با استفاده از اطلاعات جمع آوری شده توسط فناوری های غربی انجام شده، گواهی بر این خطر است.
حال بیایید به این موضوع از زاویه ای دیگر نگاه کنیم: نقش هوش مصنوعی در جنگ شبکه محور (Network-Centric Warfare). این مفهوم، که در اواخر قرن بیستم توسط ارتش ایالات متحده توسعه یافت، بر استفاده از فناوری های پیشرفته برای جمع آوری اطلاعات لحظه ای (Real-Time Intelligence) و اجرای حملات دقیق (Precision Strikes) تاکید دارد. هوش مصنوعی در این مدل جنگی نقش کلیدی دارد، زیرا می تواند حجم عظیمی از داده ها را در کسری از ثانیه تحلیل کرده و الگوهای رفتاری یا اهداف استراتژیک را شناسایی کند. گزارش هایی وجود دارد که اسرائیل در عملیات های نظامی خود، به ویژه در حملات هدفمند (Targeted Killings)، از فناوری های مشابه استفاده کرده است. برای مثال، در جنگ اخیر بین ایران و اسرائیل، گزارش هایی منتشر شد که اسرائیل از پهپادها و ریزپرنده ها (Drones) با پشتیبانی هوش مصنوعی برای شناسایی و حمله به اهداف استفاده کرده است. این فناوری ها بدون دسترسی به داده های دقیق، از جمله متادیتای جمع آوری شده از پلتفرم هایی مانند چت جی پی تی، عملا کارایی خود را از دست می دهند.
اما آیا این به این معناست که هر کاربری که از چت جی پی تی استفاده می کند، در معرض خطر مستقیم قرار دارد؟ نه لزوما. برای اکثر کاربران عادی، احتمال اینکه اطلاعاتشان مستقیما به دست نهادهای اطلاعاتی برسد و برای اهداف خطرناک استفاده شود، بسیار پایین است. اما برای افرادی که در حوزه های حساس مانند علم، فناوری، یا سیاست فعالیت می کنند، این خطر واقعی تر است. به ویژه در کشورهایی مانند ایران، که تحت تحریم های شدید و نظارت بین المللی قرار دارند، استفاده از پلتفرم های خارجی می تواند ریسک های امنیتی قابل توجهی به همراه داشته باشد. این موضوع به ویژه زمانی اهمیت پیدا می کند که بدانیم بسیاری از کاربران ایرانی برای دسترسی به چت جی پی تی از وی پی ان (Virtual Private Network - VPN) استفاده می کنند، که خود می تواند اطلاعات بیشتری درباره رفتار و هویت آن ها فاش کند.
برای درک بهتر این موضوع، بیایید به یک سناریوی فرضی نگاه کنیم. فرض کنید یک پژوهشگر ایرانی در زمینه هوش مصنوعی از چت جی پی تی برای پرس وجو درباره الگوریتم های پیشرفته یادگیری عمیق استفاده می کند. او از یک وی پی ان برای دور زدن محدودیت های دسترسی استفاده می کند، اما وی پی ان او توسط یک شرکت خارجی ارائه شده که ممکن است با نهادهای اطلاعاتی همکاری کند. متادیتای این پژوهشگر، شامل موقعیت تقریبی او (حتی با وی پی ان، برخی اطلاعات لوکیشن قابل ردیابی هستند)، نوع دستگاه، و موضوعات مورد علاقه اش، جمع آوری می شود. این اطلاعات به یک پایگاه داده بزرگ منتقل می شود، جایی که الگوریتم های تحلیل داده (Data Mining Algorithms) آن ها را با سایر منابع (مانند شبکه های اجتماعی یا اطلاعات دولتی) تطبیق می دهند. در نهایت، این پژوهشگر به عنوان یک فرد با دانش تخصصی در حوزه ای حساس شناسایی می شود. اگر این اطلاعات به دست نهادهای اطلاعاتی اسرائیل یا ایالات متحده برسد، ممکن است او به عنوان یک هدف بالقوه برای نظارت، اخلال، یا حتی اقدامات خصمانه تر در نظر گرفته شود.
این سناریو ممکن است به نظر تخیلی بیاید، اما واقعیت این است که فناوری های هوش مصنوعی و جمع آوری داده ها به مرحله ای رسیده اند که چنین سناریوهایی کاملا ممکن هستند. یکی از نمونه های واقعی این موضوع، استفاده از هوش مصنوعی برای تحلیل زبان بدن (Body Language Analysis) است. گزارش هایی وجود دارد که اسرائیل از فناوری های هوش مصنوعی برای تحلیل زبان بدن مقامات سیاسی، مانند بنیامین نتانیاهو، برای ارزیابی نیات و رفتار آن ها استفاده کرده است. این فناوری ها می توانند با ترکیب داده های متادیتا و محتوای محدود (مانند سوالات کاربران)، اطلاعات ارزشمندی درباره افراد تولید کنند.
برای کاهش این خطرات، چه می توان کرد؟ یکی از راهکارها، استفاده از پلتفرم های داخلی یا متن باز (Open-Source) است که کنترل بیشتری بر داده های کاربران دارند. در ایران، پلتفرم هایی مانند زیگپ (Zigap) یا سایر چت بات های بومی در حال توسعه هستند که می توانند جایگزینی برای چت جی پی تی باشند. این پلتفرم ها، به دلیل میزبانی در داخل کشور، کمتر در معرض نظارت خارجی قرار دارند. بااین حال، حتی این پلتفرم ها نیز باید از نظر امنیت سایبری (Cybersecurity) به دقت بررسی شوند، زیرا هر سیستمی که داده های کاربران را جمع آوری می کند، می تواند هدف حملات سایبری (Cyberattacks) قرار گیرد.
راهکار دیگر، افزایش آگاهی کاربران درباره حریم خصوصی است. کاربران باید بدانند که هرگونه تعامل با فناوری های آنلاین، حتی اگر به نظر بی ضرر بیاید، می تواند داده هایی تولید کند که در آینده علیه آن ها استفاده شود. استفاده از ابزارهای رمزنگاری پیشرفته، مانند پروتکل های تور (Tor) یا وی پی ان های معتبر، می تواند تا حدی از افشای متادیتا جلوگیری کند. اما حتی این ابزارها نیز کاملا ایمن نیستند، زیرا بسیاری از ارائه دهندگان وی پی ان خود با نهادهای اطلاعاتی همکاری می کنند.
در نهایت، باید به این نکته توجه کرد که هوش مصنوعی، مانند هر فناوری دیگری، یک شمشیر دو لبه است. از یک سو، ابزارهایی مانند چت جی پی تی می توانند به پیشرفت علم، آموزش، و نوآوری کمک کنند. از سوی دیگر، اگر بدون نظارت و تنظیم دقیق (Regulation) استفاده شوند، می توانند به ابزاری برای نقض حریم خصوصی، نظارت گسترده، و حتی تهدید جان افراد تبدیل شوند. جامعه بین المللی، به ویژه کشورهای مستقل، باید برای تنظیم استفاده از هوش مصنوعی نظامی و جلوگیری از سوءاستفاده های احتمالی تلاش کنند. پیشنهادهایی مانند معاهده بین المللی برای ممنوعیت «ربات های قاتل» (Killer Robots) یا تنظیم دقیق سیستم های تسلیحاتی خودکار (Autonomous Weapons Systems) می توانند گامی در این جهت باشند.
در پایان، باید گفت که فناوری هوش مصنوعی، با تمام مزایایش، چالش های بزرگی را نیز به همراه دارد. ادعای شرکت هایی مانند اپن ای آی مبنی بر عدم دسترسی به محتوای چت ها ممکن است تا حدی درست باشد، اما متادیتا و اطلاعات غیرمستقیم جمع آوری شده می توانند به همان اندازه خطرناک باشند. در دنیایی که داده ها به عنوان «نفت جدید» شناخته می شوند، حفاظت از حریم خصوصی و امنیت کاربران باید در اولویت قرار گیرد. تا زمانی که قوانین شفاف و الزام آوری برای تنظیم این فناوری ها وجود نداشته باشد، خطر سوءاستفاده از آن ها، به ویژه توسط نهادهای قدرتمند در کشورهایی مانند ایالات متحده و اسرائیل، همچنان باقی خواهد ماند.