کلاهبرداری با هوش مصنوعی: چالش جدید جعل عکس و فیلم ( دیپ فیک )

16 خرداد 1404 - خواندن 13 دقیقه - 64 بازدید


کلاهبرداری به واسطه ساخت عکس و فیلم جعلی توسط هوش مصنوعی (دیپ فیک) یکی از تهدیدات نوین در فضای دیجیتال است که با پیشرفت فناوری های هوش مصنوعی به سرعت در حال گسترش است. در این روش، کلاهبرداران با استفاده از نرم افزارهای پیشرفته هوش مصنوعی قادرند تصاویر و ویدیوهای بسیار واقعی و فریبنده ای از افراد بسازند که در آن ها چهره و صدای شخص به صورت جعلی و مصنوعی بازسازی شده است

هوش مصنوعی (AI)، با وجود مزایای بی شمارش، روی دیگری هم دارد: قدرت فزاینده آن در خلق محتوای جعلی، به ویژه عکس و فیلم. این تکنولوژی که با نام های "دیپ فیک" (Deepfake) نیز شناخته می شود، مرز بین واقعیت و دروغ را به طرز خطرناکی محو کرده و ابزاری جدید و قدرتمند در دست کلاهبرداران قرار داده است.

دیپ فیک چیست و چگونه کار می کند؟

دیپ فیک ها فیلم ها، عکس ها یا فایل های صوتی هستند که با استفاده از الگوریتم های یادگیری عمیق (زیرشاخه ای از هوش مصنوعی) ساخته می شوند تا چهره، صدا یا حرکات یک فرد را روی فرد دیگری یا در یک موقعیت ساختگی قرار دهند. این تکنولوژی می تواند به قدری پیشرفته باشد که تشخیص جعلی بودن محتوا را برای چشم غیرمسلح و حتی گاهی برای ابزارهای تخصصی دشوار کند.

روش های کلاهبرداری با دیپ فیک

کلاهبرداران با استفاده از دیپ فیک می توانند روش های متنوعی برای فریب افراد و شرکت ها به کار بگیرند:

کلاهبرداری های مالی با جعل هویت (BEC Scams): یکی از خطرناک ترین کاربردهای دیپ فیک، در کلاهبرداری های مهندسی اجتماعی است. کلاهبرداران می توانند با استفاده از دیپ فیک صوتی، صدای مدیرعامل یا یک فرد رده بالا را تقلید کرده و با کارمندان تماس بگیرند. آن ها در این تماس ها، دستورات جعلی برای انتقال پول به حساب های کلاهبرداران یا افشای اطلاعات محرمانه صادر می کنند. تصور کنید صدای مدیر شرکت تان از شما می خواهد فورا مبلغی را به حساب تامین کننده جدید واریز کنید؛ آیا شک می کنید؟

باج گیری و اخاذی: با ساخت تصاویر یا ویدئوهای جعلی از افراد در موقعیت های شرم آور یا compromising، کلاهبرداران اقدام به باج گیری می کنند. قربانیان از ترس آسیب به آبرو یا موقعیت اجتماعی خود، مجبور به پرداخت مبالغی می شوند.

جعل هویت در شبکه های اجتماعی: کلاهبرداران با استفاده از تصاویر و ویدئوهای دیپ فیک، پروفایل های جعلی و بسیار قانع کننده در شبکه های اجتماعی ایجاد می کنند. آن ها سپس با فریب افراد، اطلاعات شخصی آن ها را به دست آورده یا آن ها را به سمت سرمایه گذاری های جعلی و کلاهبرداری های مالی سوق می دهند.

فیشینگ پیشرفته: دیپ فیک ها می توانند در ایمیل ها یا پیام های فیشینگ استفاده شوند تا آن ها را باورپذیرتر کنند. مثلا، یک ویدئو دیپ فیک از یک بانک یا نهاد معتبر برای جلب اعتماد قربانی.

جعل مستندات و اخبار: در سطوح گسترده تر، دیپ فیک ها می توانند برای تولید اخبار جعلی (Fake News) و انتشار اطلاعات غلط به منظور تاثیرگذاری بر افکار عمومی، انتخابات یا حتی دستکاری بازارهای مالی استفاده شوند.

روش های رایج کلاهبرداری با عکس و فیلم جعلی هوش مصنوعی:

  • دیپ فیک (Deepfake): ساخت ویدیوهای کاملا واقعی از افراد که در آن ها حرکات چهره، لب ها و صدا به گونه ای هماهنگ شده که تشخیص جعلی بودن بسیار دشوار است. این ویدیوها می توانند برای تخریب شهرت، انتشار شایعات، باج گیری یا فریب دیگران استفاده شوند
  • جعل صدا: تقلید صدای افراد با دقت بالا که باعث می شود کلاهبرداران بتوانند از طریق تماس تلفنی یا پیام صوتی، افراد را فریب داده و به اهداف مالی یا اطلاعاتی خود برسند
  • باج گیری با محتوای جعلی: کلاهبرداران با ساخت ویدیوهای پورن جعلی از افراد (معمولا با کیفیت پایین برای باورپذیری بیشتر) اقدام به تهدید و باج گیری می کنند
  • فریب در تبلیغات و سرمایه گذاری: استفاده از ویدیوهای جعلی افراد مشهور برای تبلیغ محصولات یا سرمایه گذاری های کلاهبردارانه

دلایل گسترش این نوع کلاهبرداری ها:

  • سادگی استفاده از ابزارهای هوش مصنوعی: نرم افزارهای ساخت دیپ فیک و تقلید صدا به راحتی در دسترس عموم قرار دارند و کاربری آسانی دارند
  • سرعت و گستردگی انتشار در فضای مجازی: محتوای جعلی می تواند به سرعت در شبکه های اجتماعی پخش شده و تاثیرات مخرب گسترده ای داشته باشد
  • تشخیص دشوار جعلی بودن: کیفیت بالای ویدیوها و تصاویر جعلی باعث می شود حتی کارشناسان نیز در تشخیص آن ها دچار اشتباه شوند

چرا دیپ فیک ها خطرناک تر می شوند؟

دسترسی آسان تر: ابزارها و نرم افزارهای ساخت دیپ فیک روز به روز پیشرفته تر و در دسترس تر می شوند، حتی برای افراد با دانش فنی محدود.

کیفیت بالاتر: کیفیت دیپ فیک ها به سرعت در حال افزایش است و تشخیص آن ها با چشم غیرمسلح تقریبا غیرممکن شده است.

عدم آگاهی عمومی: بسیاری از افراد از وجود چنین فناوری و خطرات آن بی اطلاع هستند، که آن ها را به اهدافی آسان برای کلاهبرداران تبدیل می کند.

چگونه می توان در برابر کلاهبرداری های دیپ فیک از خود محافظت کرد؟

با وجود پیشرفت دیپ فیک ها، اقداماتی وجود دارد که می تواند به کاهش خطر کمک کند:

شک و تردید سالم: همیشه به محتوایی که بیش از حد واقعی به نظر می رسد، شک کنید، به خصوص اگر درخواست های مالی یا اطلاعات محرمانه در آن مطرح باشد.

بررسی صحت اطلاعات: قبل از هرگونه اقدام، صحت اطلاعات را از طریق کانال های ارتباطی رسمی و تایید شده (نه شماره یا ایمیلی که در همان محتوای مشکوک ارائه شده) بررسی کنید. برای مثال، اگر مدیرتان با صدا یا تصویر مشکوک درخواستی داشت، با او از طریق شماره تلفن رسمی شرکت تماس بگیرید.

توجه به جزئیات غیرطبیعی: در ویدئوهای دیپ فیک، گاهی اوقات جزئیات کوچکی مانند چشمک زدن غیرطبیعی، حرکات دهان ناهماهنگ با گفتار، یا تغییرات ناگهانی در نور و سایه می تواند نشانه هایی از جعلی بودن باشد.

استفاده از احراز هویت چندعاملی (MFA): برای حساب های آنلاین و سیستم های شرکت، همیشه از احراز هویت چندعاملی استفاده کنید تا حتی اگر رمز عبور شما لو رفت، دسترسی کلاهبرداران محدود شود.

افزایش آگاهی: خودتان و اطرافیانتان را در مورد خطرات دیپ فیک و روش های کلاهبرداری مرتبط با آن آگاه کنید.

استفاده از ابزارهای تشخیص دیپ فیک: شرکت ها و سازمان ها می توانند از ابزارهای نرم افزاری خاصی برای تشخیص دیپ فیک ها استفاده کنند، اگرچه این ابزارها نیز همواره در حال رقابت با پیشرفت تکنولوژی دیپ فیک هستند.

آینده و راهکارهای پیش رو

مبارزه با کلاهبرداری های مبتنی بر دیپ فیک یک چالش مستمر است. نیازمند همکاری بین توسعه دهندگان هوش مصنوعی، قانون گذاران، شرکت های فناوری و کاربران است. توسعه الگوریتم های قوی تر برای تشخیص دیپ فیک، آموزش عمومی و وضع قوانین کارآمد برای مقابله با سوءاستفاده از این فناوری، گام های ضروری در این مسیر هستند.

راهکارهای مقابله و پیشگیری:

  • بررسی دقیق منبع محتوا: اطمینان از صحت و اعتبار منبع عکس یا ویدیو
  • استفاده از ابزارهای تخصصی تشخیص جعل: مانند InVID برای ویدیو و FotoForensics برای تصاویر
  • آموزش و افزایش آگاهی عمومی: اطلاع رسانی درباره خطرات و روش های شناسایی محتوای جعل
  • تایید هویت در تماس های حساس: در موارد تماس تلفنی، تماس مجدد با شماره اصلی فرد برای اطمینان از صحت ارتباط
  • قوانین و مقررات سختگیرانه تر: وضع قوانین بازدارنده برای تولید و انتشار محتوای جعلی و حمایت از قربانیان

جمع بندی

کلاهبرداری با استفاده از تصاویر و فیلم های جعلی تولید شده توسط هوش مصنوعی، تهدیدی جدی برای امنیت فردی، اجتماعی و اقتصادی است که با پیشرفت فناوری های هوشمند، پیچیده تر و گسترده تر شده است. مقابله با این پدیده نیازمند ترکیبی از فناوری های تشخیص، آموزش عمومی، قوانین موثر و هوشیاری کاربران است.

امیرحسین صفدری وکیل دادگستری و پژوهشگر علم حقوق

به عنوان یک پژوهشگر علم حقوق این نکته مهم را باید بگویم که تا قبل از ظهور هوش مصنوعی تغییر محتوای عکس و یا صدا و یا فیلم افراد بسیار کار سختی بود، و هر کسی نمی توانست چنین تغییراتی را ایجاد کند؛ اما این روزها با ظهور و پیشرفت هوش مصنوعی، و به کمک جعل عمیق افراد مبتدی هم به راحتی می توانند دست به ساخت فیلم و یا عکس و یا صدا جعلی و فیک بزنند، چرا که هوش مصنوعی قدرت چشمگیری در ساخت چنین محتوای جعلی دارد.

باید آگاه باشیم و بدانیم که افراد سودجو می توانند یک عکس یا فیلم جعلی جهت ترویج موضوع مدنظر خود را توسط هوش مصنوعی خیلی دقیق و منظم تولید کنند که این مسله ممکن است خطرات زیادی را برای افراد به همراه داشته باشد، چرا که افراد جامعه چون از قدرت هوش مصنوعی آگاه نیستند ممکن است به سادگی آن عکس و یا ویدیو های جعلی و ساختگی را باور کنند و اینگونه افراد جامعه دچار آسیب های مادی و معنوی زیادی بشوند که بعضا قابل جبران نمی باشد.

طبق اخبار جهانی منتشر شده، کلاهبرداری هایی که این روزها در اکثر کشورهای دنیا به کمک هوش مصنوعی زیاد رخ می دهد تغییر صدای افراد است، بدین صورت که اکثر ما صدای واقعی اعضای خانواده و یا دوستان و یا افراد معروف را می شناسیم، و هوش مصنوعی می تواند با تقلید دقیق این صداها بطوری که ما اصلا متوجه جعلی بودن آن نشویم ما را قربانی خواسته خودشان کنند، کما این که این روزها شاهد این هستیم که با صدای خیلی از خوانندگان فوت شده آهنگ های جدید ساخته و پخش می شود که بسیار نزدیک و شبیه به صدای خود آن افراد می باشد که به سادگی قابل تشخیص نمی باشد.

باید بگویم که هوش مصنوعی به روش جعل عمیق یا دیپ فیک می تواند صدای افراد را خیلی دقیق تقلید کند به گونه ای که تا حد زیادی مشابه صدای واقعی آن افراد باشد؛ متاسفانه این افراد سودجو از پروفایل های رسانه های اجتماعی افراد در فضای مجازی قسمتی از صدای یکی از افراد خانواده یا آشنایان شما را بدست می آورند و از هوش مصنوعی برای تکرار صدا و برقراری تماس تلفنی جعلی با یکی از اعضای خانواده یا دوستان آن فرد برای درخواست پول و یا هر کار دیگری برای مواقع اضطراری استفاده می کنند و شما هم که به آن صدا شک نمی کنید درخواست طرف مقابل را قبول کرده و این گونه شما قربانی این افراد سودجو به کمک هوش مصنوعی می شوید.

هموطنان عزیز نسبت به قدرت هوش مصنوعی این روزها توجه ویژه داشته باشید چرا که ساده انگاری شما ممکن است برای شما خطرآفرین باشد، این سواستفاده ها ممکن است مانند: تماس تلفنی یا ویس در فضای مجازی و... با فردی نزدیک به شما انجام شود و تقاضایی از شما باشد که تشخیص جعلی بودن آن را نمی دهید که این صدا واقعی است یا جعلی و شما به آن صدا اعتماد می کنید و تقاضای آن فرد آشنا را انجام می دهید در صورتی که اصلا آن شخص خودش خبر ندارد که چنین اتفاقی رخ داده است.

پس آگاه باشید و بدانید که بهتر است برای این که قربانی چنین کلاهبرداری توسط جعل عمیق که به کمک هوش مصنوعی این روزها زیاد انجام می شود، نشوید در هنگام تماس با نزدیکان خود و یا افراد دیگر اگر شک کردین که این صدا ممکن است جعلی باشد و یا متعلق به آن فرد نباشد حتما سوالات خصوصی و شخصی که خود شما و آن فرد از آنها آگاهی دارید را بپرسید تا مطمئن شوید صدا متعلق به آن شخص بوده و جعلی نمی باشد.

چرا که اکثر قربانیان در این روش می گویند من مطمئن بودم که آن صدا متعلق به برادر یا مادر یا دوست نزدیک من بوده اما بعد از این که آن فرد را دیدن و ماجرا را برایش توضیح داده اند و آن فرد اظهار بی آگاهی کرد شما تازه آن موقع متوجه می شوید که قربانی کلاهبرداری به واسطه هوش مصنوعی و جعل عمیق شده اید، هرگز این روزها به هر چیزی که در فضای مجازی مشاهده می کنید اعتماد نکنید و اصل را بر جعلی بودن قرار بدهید مگر آن که از اصالت آن اطمینان کامل حاصل کنید.