تهدید وجودی عملیات های دروغ پراکنی تقویت شده با هوش مصنوعی

7 آذر 1404 - خواندن 21 دقیقه - 10 بازدید
تهدید وجودی عملیات های دروغ پراکنی تقویت شده با هوش مصنوعی




مقدمه

عملیات دروغ پراکنی - تلاش های پنهانی برای انتشار عمدی اطلاعات نادرست یا گمراه کننده - از نظر تاریخی یک تلاش منحصرا انسانی بوده است. با ظهور ارتباطات دیجیتال آنی، بازیگران بدخواه به طور فزاینده ای از سیستم های یادگیری ماشینی تعبیه شده در زندگی روزمره ما سوءاستفاده کرده اند تا مخاطبان را به طور دقیق هدف قرار دهند، افکار عمومی جهانی را شکل دهند و اختلاف اجتماعی ایجاد کنند. امروزه، اپراتورهای دروغ پراکنی در حال گسترش ابزارهای دستکاری خود هستند تا تکنیک های جدید هوش مصنوعی را نیز شامل شوند. رسانه های مصنوعی تولید شده توسط هوش مصنوعی و چت بات های متقاعدکننده تقویت شده با هوش مصنوعی، اکنون مجموعه ای رو به رشد از قابلیت های پیام رسانی اقناعی، سفارشی و دشوار برای شناسایی را در اختیار بازیگران تهدید قرار می دهند. در حالی که می توان از تکنیک های یادگیری ماشینی نیز برای مبارزه با دروغ پراکنی استفاده کرد، احتمالا برای مقابله با جهان رو به گسترش مزدوران دیجیتال ناشناس کافی نخواهند بود. مگر اینکه دموکراسی های لیبرال استراتژی های ضد دروغ پراکنی کل جامعه را توسعه دهند، عملیات دروغ پراکنی تقویت شده با هوش مصنوعی، قطب بندی سیاسی را بیشتر تشدید می کند، اعتماد شهروندان به نهادهای اجتماعی را از بین می برد و مرزهای بین حقیقت و دروغ را محو می کند.


ترسیم و تعریف چشم انداز مدرن اطلاعات نادرست

ابتدا، چند تعریف سریع لازم است. هوش مصنوعی حوزه ای از تحقیقات است که به دنبال ساخت فناوری های محاسباتی است که جنبه هایی از ادراک، استدلال و تصمیم گیری انسان را در خود جای داده اند. یادگیری ماشین، زیرمجموعه ای از هوش مصنوعی، شامل استفاده از قدرت محاسباتی برای اجرای الگوریتم هایی است که از داده ها یاد می گیرند. الگوریتم ها دستورالعملی برای انجام وظایف برنامه ریزی شده هستند؛ داده ها به این سیستم ها کمک می کنند تا در مورد جهان «یاد بگیرند»؛ و قدرت محاسباتی موتوری است که سیستم ها را قادر می سازد وظایف خاص را به سرعت و با دقت انجام دهند. در طول دهه گذشته، پیشرفت های قابل توجهی در قابلیت های یادگیری ماشینی با پیشرفت در قدرت پردازش رایانه ، ظهور کلان داده و تکامل « شبکه های عصبی » یادگیری عمیق امکان پذیر شده است. (این شبکه ها شامل آبشارهایی از گره ها هستند که به طور آزادانه نورون های مغز انسان را تقلید می کنند، که در ترکیب با یکدیگر می توانند الگوها را در مجموعه داده های بزرگ شناسایی کرده و وظایف پیچیده را رمزگذاری کنند.) هوش مصنوعی در حالی که از هوش انسانی متمایز است، در وظایف محدود برتری دارد و در چندین زمینه از قابلیت های انسانی فراتر رفته است .

از آنجایی که هوش غیرانسانی به طور فزاینده ای در تار و پود فعالیت های انسانی ادغام شده است، اطلاعات نادرست دیجیتال به عنوان ابزاری قدرتمند برای جنگ سیاسی ظهور کرده است. شرکت های بزرگ فناوری، که تا حدودی تحت تاثیر بازار رقابتی برای جلب توجه و درآمد تبلیغاتی هستند، داده های کاربران را استخراج می کنند تا الگوریتم های انتخاب محتوای خود را اصلاح کرده و تعامل کاربر را بهینه کنند. همانطور که در مقاله فیسبوک آمده است ، در هسته این شبکه های اجتماعی تاثیرگذار، سیستم های توصیه گری وجود دارند که کاربران را به سمت سوراخ های خرگوش محتوای شخصی سازی شده تر و جدیدتر سوق می دهند. گزارشی از کاترینا سدووا و تیمش در مرکز امنیت و فناوری های نوظهور نشان می دهد که چگونه بازیگران بدخواه از این محیط دیجیتال توجه محور برای هدف گیری جزئی و بسیج کاربران ناخواسته اینترنت با کاشت «محتوای سفارشی شده در محیط اطلاعات و ربودن انجمن های آنلاین مشروع» از طریق حساب های جعلی انسانی (sock puppets)، بات نت های خودکار، گروه هایی از انسان های هماهنگ و تبلیغات دیجیتال سوءاستفاده می کنند. اپراتورهای اطلاعات نادرست به دنبال سوءاستفاده از تعصبات انسانی، تشدید احساسات و القای اضافه بار اطلاعات به قیمت تصمیم گیری منطقی هستند . محققان مرکز شورنشتاین هاروارد معتقدند که گردانندگان بااستعداد انتشار اطلاعات نادرست می توانند با برجسته کردن عمدی تفاوت ها و تفرقه ها در جامعه، «ایده های تبعیض آمیز و فتنه انگیز را به عنوان واقعیت وارد گفتمان عمومی کنند». با گذشت زمان، این پدیده می تواند شکاف های هویت محور بین گروه های اجتماعی را گسترش دهد، چرخ دنده های حکومت دموکراتیک را مختل کند و در برخی موارد، خشونت را تشدید کند.

تکنیک های انتشار اطلاعات نادرست دیجیتال با سرعت زیادی در حال انتشار و تکامل هستند. رژیم های استبدادی، به ویژه روسیه و چین، به طور فزاینده ای قابلیت های جدیدی را برای پیشبرد دقیق تر عملیات انتشار اطلاعات نادرست خود در داخل و خارج از کشور دنبال می کنند. در حالی که کمپین های انتشار اطلاعات نادرست خارجی بیشترین توجه را به خود جلب می کنند، بازیگران داخلی نیز تاکتیک های مشابهی را اتخاذ می کنند و عملیات به طور فزاینده ای به یک صنعت رو به رشد انتشار اطلاعات نادرست فراملی برون سپاری می شود . با توجه به موفقیت اثبات شده و پتانسیل آینده آن، بازیگران دارای منابع خوب به سرمایه گذاری در قابلیت های پیشرفته هوش مصنوعی برای تقویت عملیات انتشار اطلاعات نادرست فعلی خود ادامه خواهند داد.

دیپ فیک های دموکراتیزه شده و چت بات های ارتقایافته با هوش مصنوعی

تکنیک های یادگیری ماشین می توانند تصاویر، صدا و ویدیوی جعلی بسیار واقع گرایانه ای تولید کنند که به عنوان « دیپ فیک » شناخته می شوند. شبکه های مولد تخاصمی (GAN) این قابلیت های رسانه های مصنوعی را ممکن می سازند - تکنیکی که داده های مصنوعی جدیدی تولید می کند که با یادگیری، به طور فزاینده ای واقع گرایانه تر می شوند. یک سیستم GAN دو شبکه را در مقابل یکدیگر قرار می دهد. یک شبکه (متمایزکننده) بر روی یک مجموعه داده واقعی مورد علاقه آموزش می بیند و سپس تشخیص می دهد که آیا داده های جدید واقعی هستند یا جعلی. شبکه مقابل (مولد) داده های جدیدی را برای فریب دادن متمایزکننده تولید می کند. در نتیجه این رقابت تکراری، مولد در ایجاد محتوای مصنوعی که می تواند برای گمراه کردن، فریب دادن یا تاثیرگذاری بر مخاطبان مورد استفاده قرار گیرد، بهبود می یابد. این تکنیک برای ایجاد چهره های مصنوعی فوق العاده واقع گرایانه برای انبوهی از حساب های ربات، تولید صدای قانع کننده برای اخاذی یا باج گیری و تولید محتوای جعلی که در زمان بندی استراتژیک می تواند حکومت و ژئوپلیتیک را بی ثبات کند، استفاده شده است .

با افزایش دسترسی و کاربرپسندی قابلیت های رسانه های مصنوعی، کارشناسان پیش بینی می کنند که جعل عمیق به نفع کسانی خواهد بود که از قبل در موقعیت های قدرت و نفوذ قرار دارند و مهم ترین خطرات را برای جوامعی که با ساختارهای قدرت سنتی مخالف هستند، ایجاد می کند. در جهانی مملو از رسانه های دستکاری شده، افراد و نهادهای قدرتمند می توانند به راحتی حقایق ناخوشایند را نادیده بگیرند. این پویایی ممکن است چیزی را که رابرت چزنی و دانیل سیترون « سود دروغگو » می نامند، تداوم بخشد، که در آن بازیگران بد که در ضبط های واقعی رفتارهای نادرست گیر می افتند، می توانند حقیقت را به عنوان جعل هوش مصنوعی نادیده بگیرند. فراتر از آسیب ها و سوءرفتارهای فردی که توسط این پویایی ایجاد می شود، این روند احتمالا بدبینی فزاینده در مورد امکان و ارزش تمایز بین واقعیت و خیال را تسریع خواهد کرد. طبق گزارش اخیر موسسه تحقیقات خلع سلاح سازمان ملل متحد، توانایی «به تصویر کشیدن کسی که کاری را انجام می دهد که هرگز انجام نداده یا چیزی را می گوید که هرگز نگفته است» از طریق جعل عمیق می تواند «درک ما از واقعیت را به چالش بکشد و تحت تاثیر قرار دهد».

در حالی که دیپ فیک های بصری توجه سیاست گذاران را به خود جلب کرده اند، دیپ فیک های متنی ممکن است حتی آزاردهنده تر باشند. پیشرفت ها در پردازش و تولید زبان طبیعی - الگوریتم های یادگیری ماشینی که زبان ها را تشخیص می دهند، پیش بینی می کنند و تولید می کنند - باعث ایجاد مدل های زبانی پیچیده و بزرگی شده اند که قادر به خواندن، نوشتن و تفسیر متن هستند. همانطور که کارن هائو در نشریه Technology Review دانشگاه MIT توضیح می دهد : «این مدل ها با دریافت میلیون ها جمله، پاراگراف و دیالوگ مبتنی بر وب، الگوهای آماری حاکم بر نحوه چیدمان معقول هر عنصر را یاد می گیرند.» اما این مدل ها در کنار قوانین دستوری، در تقلید از گفتمان آنلاین نیز عالی هستند و بنابراین مستعد تکرار طوطی وار موذیانه ترین تعصبات بشریت هستند .

مدل های زبانی بزرگ که قادر به نوشتن محتوای متقاعدکننده و ظاهرا معتبری هستند که با یک محیط فرهنگی خاص مطابقت دارد، می توانند برای افزایش مقیاس و دامنه عملیات های انتشار اطلاعات نادرست مورد استفاده قرار گیرند. تحقیقات اولیه نشان داده است که یک مدل می تواند مقالاتی بنویسد که از مقالات نوشته شده توسط روزنامه نگاران قابل تشخیص نباشد (به ویژه با افزایش تعصب در محتوا)، سبک نوشتاری افراط گرایان را تقلید کند ، مانیفست های نژادپرستانه از دیدگاه های مختلف تولید کند، روایت های توطئه جدیدی را ایجاد کند و پست هایی را پیش نویس کند که از اختلافات سیاسی سوءاستفاده می کنند . مطالعات همچنین نشان داده است که بازیگران تهدید می توانند از مدل های زبانی بزرگ برای ساده سازی کار اپراتورهای انتشار اطلاعات نادرست انسانی، تسهیل کمپین های تبلیغاتی هدفمند و افزایش پتانسیل انفجاری هنگام افشای اسناد هک شده استفاده کنند .

علیرغم این خطرات، مدل های زبانی بزرگ توسط شرکت ها و کشورهای سراسر جهان توسعه یافته و به کار گرفته می شوند و به طور فزاینده ای متن باز هستند . از آنجا که هنوز هیچ فناوری قادر به شناسایی جامع متن مصنوعی آنلاین نیست، بازیگران بدخواه ممکن است از قبل از این مدل ها برای تقویت عملیات انتشار اطلاعات نادرست خود استفاده کنند. با پیشرفت شبکه های مولد تخاصمی (GAN) و قابلیت های مدل های زبانی بزرگ، مدل های یادگیری ماشینی شروع به تغییر به سمت تولید ترکیبات یکپارچه متن، ویدئو، صدا و تصاویر ثابت کرده اند که تیم های انسان-ماشین را قادر می سازد تا اطلاعات نادرست با کیفیت بالا و بسیار شخصی سازی شده را در مقیاس تولید کنند.

تکنیک های جدید یادگیری ماشین همچنین امکان تولید حساب های کاربری خودکار رسانه های اجتماعی - که معمولا " بات " نامیده می شوند - را فراهم می کنند که در تقلید از رفتار انسان، به حداکثر رساندن تقویت و جلوگیری از شناسایی بهتر هستند. هوش مصنوعی محاوره ای، مدل های زبانی بزرگی هستند که قادر به مدیریت "ماهیت باز" مکالمات هستند و آینده ای نزدیک را نشان می دهند که در آن چت بات ها در گفتگویی یکپارچه با انسان ها شرکت می کنند. جامعه تحقیقاتی هوش مصنوعی معمولا یافته های خود را عمومی می کند، بنابراین سایر محققان می توانند کار خود را بازتولید، یاد بگیرند و بر اساس آن بسازند. به نوبه خود، مجموعه داده های آموزشی منبع باز منتشر شده توسط سرویس های تشخیص ربات به طور مساوی در دسترس بازیگران تهدیدی است که از آنها برای توسعه ربات های شبیه تر به انسان استفاده می کنند .

این پیشرفت ها، اپراتورهای باهوش انتشار اطلاعات نادرست را قادر می سازد تا چت بات های مجهز به هوش مصنوعی را با قابلیت های موجود در زمینه ی شنود اجتماعی و رسانه های مصنوعی ترکیب کنند تا موضوعات پرطرفدار را شناسایی کنند، مجموعه ای از پیام های انسانی را ایجاد کنند و روایت های بسیار شخصی سازی شده را به مخاطبان هدف ارائه دهند. به زودی برای بازیگران تهدید این امکان فراهم خواهد شد که چت بات ها را برای تخصص در تکنیک های خاص ترولینگ آموزش دهند یا آنها را با پوسته های ویدیویی تولید شده توسط GAN که خود را به جای منابع معتبر جا می زنند، زنده کنند . به زودی، حساب های کاربری کاملا مستقل ربات به صورت انبوه تولید می شوند، به سرعت با تجربه بهبود می یابند و بی وقفه سعی می کنند افراد را به صورت آنلاین متقاعد، ترول و دستکاری کنند. همانطور که گزارش سال ۲۰۱۷ کمیسیون مشورتی دیپلماسی عمومی وزارت امور خارجه پیش بینی می کند، سپس ماشین ها مجموعه ی رو به گسترش محتوای تولید شده توسط ربات ها را پردازش می کنند و چرخه ی معیوبی ایجاد می کنند که در آن دستگاه ها با یکدیگر، در مقابل یکدیگر و بر روی یکدیگر صحبت می کنند و به تدریج « مکالمات انسانی آنلاین را غرق می کنند ». مشخص نیست که این نگرانی ها در طول پنج سال گذشته از زمان انتشار آن گزارش تا چه حد محقق شده اند - اما ادعاهای مربوط به شیوع ربات هایی که در حال حاضر در پلتفرم های رسانه های اجتماعی فعالیت می کنند، مانعی بر سر راه فروش پیشنهادی یک پلتفرم مرکزی (توییتر) ایجاد کرده است. ناتوانی مداوم در تعیین میزان مشکل ربات های توییتر، حتی با وجود یک معامله ۴۴ میلیارد دلاری در این زمینه، چالش عمیق شناسایی محتوای تولید شده توسط هوش مصنوعی را در مقیاس بزرگ نشان می دهد.

و با این حال، به نظر می رسد که سیل بالقوه اطلاعات نادرست تقویت شده با هوش مصنوعی هنوز صدای انسان ها را خفه نکرده است. در واقع، طبق بهترین ارزیابی های فعلی ما، در طول انتخابات ریاست جمهوری بسیار بحث برانگیز ۲۰۲۰ ایالات متحده، فقدان قابل توجهی از محتوای جعل عمیق با انگیزه سیاسی ( با برخی استثنائات ) وجود داشت. در عوض، بیشترین آسیب مداوم ناشی از رسانه های مصنوعی در حوزه شخصی اتفاق می افتد و به طور نامتناسبی بر زنان و جوامع حاشیه نشین تاثیر می گذارد . در حال حاضر، نرم افزارهای ویرایش ساده و تکنیک هایی مانند ضمیمه کردن توضیحات گمراه کننده به محتوای موجود به طور قابل توجهی رایج تر از رسانه های مصنوعی تولید شده توسط هوش مصنوعی هستند. همانطور که محققان بولتن دانشمندان اتمی اشاره می کنند ، رسانه های دستکاری شده نیازی به متقاعد کردن مخاطبان خود به واقع گرایی خود برای گسترش گسترده و تاثیرگذاری بر رفتار انسان ندارند.

در عرصه پرمخاطره ژئوپلیتیک، کشورهای اقتدارگرا به تازگی شروع به ادغام دیپ فیک و سایر رسانه های مجهز به هوش مصنوعی در ابزارهای دروغ پراکنی خود کرده اند. به عنوان مثال، در آستانه حمله تمام عیار به اوکراین، کرملین ظاهرا قصد داشت حمله اوکراینی ها به غیرنظامیان روسی را به عنوان بهانه ای برای حمله صحنه سازی کند - اما طبق گزارش ها، این طرح از بازیگران و اجساد استفاده می کرد، نه دیپ فیک. به عبارت دیگر، حتی بازیگران تهدید با منابع خوب نیز همچنان به جای جعل های تولید شده توسط هوش مصنوعی، اشکال سنتی تر فریب را انتخاب می کنند. حتی در صورت استفاده، این فناوری ها هنوز موثر نبوده اند. به عنوان مثال، یک دیپ فیک که ولادیمیر زلنسکی، رئیس جمهور اوکراین را در حال تسلیم شدن نشان می دهد، در یک وب سایت خبری هک شده اوکراینی بارگذاری شد، اما این ویدیو به سرعت رد شد. در عین حال، کرملین استراتژی های جنگ اطلاعاتی ظریف تری را نیز دنبال کرده است که هوش مصنوعی آنها را تقویت کرده است. به عنوان مثال، روسیه انبوهی از حساب های جعلی با چهره های تولید شده توسط هوش مصنوعی را برای تقویت اعتبار خود و تکرار طوطی وار نکات صحبت های خود مستقر کرده است. در مجموع، بهبود تولید رسانه های مصنوعی، ناگزیر قابلیت های بازیگران بدخواه در انتشار اطلاعات نادرست را افزایش داده و به جنبه ای روتین از زندگی آنلاین تبدیل خواهد شد.

راهبردهایی برای مبارزه با اطلاعات نادرست تقویت شده با هوش مصنوعی

همانطور که از یادگیری ماشینی برای تقویت عملیات انتشار اطلاعات نادرست استفاده می شود، می توان از سایر قابلیت های یادگیری ماشینی برای محافظت از محیط اطلاعات استفاده کرد. ذینفعان در حال توسعه فناوری های منشا رسانه ای برای تایید ابرداده ها هستند - اطلاعاتی در مورد اینکه چگونه، توسط چه کسی، چه زمانی و کجا یک قطعه رسانه ای ایجاد و ویرایش شده است. کاتارینا کرتیسووا برجسته می کند که چگونه هوش مصنوعی می تواند با تجزیه و تحلیل نشانه های مقالاتی که قبلا به عنوان دستکاری علامت گذاری شده اند، الگوهای کلماتی را که نشان دهنده اطلاعات نادرست هستند، شناسایی کند. قابلیت های تشخیص مبتنی بر ویژگی مشابه نیز می توانند برای شناسایی تصاویر و ویدیوهای تولید شده مصنوعی به کار گرفته شوند. شرکت های رسانه های اجتماعی و نسل جدیدی از استارت آپ های فناوری نیز از یادگیری ماشینی در کنار مدیران انسانی برای شناسایی اطلاعات نادرست و حساب های ربات استفاده می کنند، اگرچه این قابلیت ها ۱۰۰ درصد موثر نیستند. آژانس پروژه های تحقیقاتی پیشرفته دفاعی در تلاش مداوم برای توسعه سیستم های پزشکی قانونی برای بهبود توانایی ها در تشخیص تناقضات در محتوای دیپ فیک است.

اگرچه ابزارهای احراز هویت و تشخیص در حال توسعه هستند، اما همچنان ناقص هستند . حداقل دو مشکل متمایز در مواجهه با این قابلیت ها وجود دارد: اول، تشخیص اینکه آیا رسانه به صورت مصنوعی تولید شده است یا خیر، و دوم، اینکه آیا اطلاعات منتقل شده توسط رسانه درست است یا نادرست. تکنیک های شرح داده شده در بالا به طور گسترده به مشکل اول می پردازند، اما خودکارسازی مشکل دوم به طور قابل توجهی چالش برانگیزتر است. برای تشخیص اینکه آیا رسانه درست است یا نادرست، یک هوش مصنوعی به درک پیچیده ای از قدرت، «تاریخ، طنز، ارجاع نمادین، استنتاج، ظرافت، کنایه و قدرت» نیاز دارد. از آنجا که سیستم های تشخیص فاقد این توانایی های کاملا انسانی هستند، شکار تهدید هنوز در درجه اول به نکات بازیگران انسانی، از جمله دولت، رسانه ها و شرکای جامعه مدنی متکی است - یک سیستم تشخیص که سوالات خود را در مورد تعصب و انصاف مطرح می کند . در همین حال، سیستم های تشخیص کاملا مستقل نیز اشتباه می کنند. آنها گاهی اوقات به اشتباه محتوای قانونی و دقیق را مسدود می کنند که ممکن است آزادی بیان و اطلاعات را مختل کند . حتی پیشرفته ترین قابلیت های تشخیص نیز در معرض نمونه های خصمانه قرار دارند - «توهمات نوری» برای مدل های یادگیری ماشین که عمدا برای شناسایی نادرست تصاویر و ویدیوها طراحی شده اند. و همانطور که در بالا بحث شد، تعیین اینکه آیا یک متن دیجیتال توسط انسان، ماشین یا ترکیبی از این دو ایجاد شده است، فوق العاده دشوار است .

مستقیم ترین راه برای مبارزه با اطلاعات نادرست تقویت شده با هوش مصنوعی، تمرکز بر زیرساخت هایی است که توزیع آن را تسهیل می کند. در حالی که کنگره می تواند قانونی را دنبال کند که مستقیما الگوریتم های رسانه های اجتماعی را تنظیم کند، این رویکرد باید با دقت تنظیم شود تا از موانع جدی قانون اساسی جلوگیری شود . در عوض، قوانینی که مبتنی بر اهداف بی طرفی محتوا مانند برچسب گذاری دقیق حساب های ربات ، تقویت قوانین حفظ حریم خصوصی داده ها ، الزامی کردن قابلیت همکاری بین پلتفرمی ، افزایش شفافیت الگوریتمی و تقویت رقابت عادلانه باشند ، می توانند راه های بالقوه ای را برای کاهش اطلاعات نادرست و حفظ اصالت آنلاین ارائه دهند. هدف از تنظیم مقررات باید این باشد که به شرکت های رسانه های اجتماعی انگیزه دهد تا از مدل های تجاری تبلیغات محور خود فاصله بگیرند و نقش مهم تری در حفاظت از محیط های اطلاعاتی دموکراتیک ایفا کنند. در عین حال، مقررات باید مراقب باشند که مانع تحقیقات هوش مصنوعی نشوند و خطر تضعیف دست ایالات متحده در رقابت فناوری خود با چین را به همراه نداشته باشند .

فراتر از این تلاش های نظارتی، ذینفعان اجتماعی باید استراتژی های مقابله با اطلاعات نادرست را دنبال کنند. کنگره می تواند بودجه ای را برای تکنیک های جدید برای شناسایی رسانه های مصنوعی اختصاص دهد ، در سازمان های خبری محلی در سراسر کشور سرمایه گذاری کند و از سرویس هایی که اطلاعات مصرف کننده جمع آوری شده را می فروشند، بخواهد تا خریداران بالقوه را بررسی کنند. دولت ایالات متحده باید از متحدان و شرکای خود برای به اشتراک گذاشتن اطلاعات و بهترین شیوه ها برای تشخیص عملیات اطلاعات نادرست استفاده کند. فناوری بلاکچین - یک دفتر کل غیرمتمرکز برای ثبت اطلاعاتی که تغییر آن پس از ایجاد تقریبا غیرممکن است - پتانسیل بالایی برای کمک به تایید منشا محتوای دیجیتال دارد. پلتفرم ها و محققان هوش مصنوعی باید یک چارچوب ریسک انتشار ایجاد کنند تا از تحقیقات منبع باز خود در برابر استفاده غیراخلاقی محافظت کنند و بهترین شیوه های امنیت سایبری را برای مقابله با اطلاعات نادرست تطبیق دهند. رسانه های سنتی باید استراتژی های مشابهی را برای جلوگیری از تقویت ناخواسته عملیات اطلاعات نادرست توسعه دهند. نکته مهم این است که منابع، آموزش و تجهیزات بیشتری باید به سازمان های جامعه مدنی اختصاص داده شود تا یک استراتژی مقابله با اطلاعات نادرست واقعا در کل جامعه ایجاد شود.

جوامع باز باید ابتکارات قوی و بلندمدتی را دنبال کنند تا به جمعیت خود کمک کنند تا مصرف کنندگان متعادل تر و محتاط تری در استفاده از اطلاعات آنلاین باشند. ترویج « شهروندی سایبری » برای همه گروه های سنی، موثرترین راه حل بلندمدت برای دستیابی به تاب آوری در برابر اطلاعات نادرست خواهد بود. این مهارت ها شامل سواد رسانه ای ، اخلاق دیجیتال، علوم مدنی و امنیت سایبری است. ایالات متحده باید درس هایی را که از برنامه های موفق سواد رسانه ای دیجیتال در سراسر جهان آموخته است، که بسیاری از آنها را حمایت و تامین مالی کرده است، در برنامه خود بگنجاند. پرورش مهارت های شهروندی سایبری به واکسینه کردن افراد در برابر عملیات اطلاعات نادرست، چه با پشتیبانی هوش مصنوعی و چه بدون آن، کمک خواهد کرد.

به طور گسترده تر، همانطور که کمیسیون اختلال اطلاعات موسسه آسپن استدلال می کند، انتشار اطلاعات نادرست یا گمراه کننده آنلاین، محصول جانبی نابرابری های ساختاری پیچیده ای است که اعتماد بین جوامع را از بین برده است. برای مقابله واقعی با گسترش اطلاعات نادرست و جلوگیری از عملیات عمدی انتشار اطلاعات نادرست، جوامع باز باید با سرمایه گذاری در توسعه و رفاه بلندمدت شهروندان خود، به شکاف های رو به گسترش بین داراها و ندارها بپردازند.

تهدید وجودی عملیات های دروغ پراکنی تقویت شده با هوش مصنوعی

قابلیت های جدید هوش مصنوعی به سرعت حجم، سرعت و شیوع عملیات های انتشار اطلاعات نادرست را افزایش می دهند. با ادامه بهبود و انتشار آنها، این قابلیت ها بیشتر تهدیدی برای از بین بردن اعتماد به حکومت دموکراتیک و تشویق شهروندان به تردید در مورد امکان حقیقت در زندگی عمومی هستند. بدبینی عمیق ناشی از اطلاعات نادرست تقویت شده با هوش مصنوعی می تواند برای دامن زدن به اکثریت گرایی اوباش و ایجاد فرصت های جدید برای سیاستمداران غیرلیبرال جهت تبلیغ وعده های بازگرداندن «نظم» و «قطعیت» با محدود کردن آزادی بیان و سایر حقوق مدنی مورد استفاده قرار گیرد. چنین نتیجه ای چیزی را که تیموتی اسنایدر « سیاست ابدیت » نامیده است، تسریع می کند که در آن بازیگران بدخواه «حقیقت را انکار می کنند و به دنبال تقلیل زندگی به نمایش و احساس هستند».