ساخت عکس و فیلم جعلی توسط هوش مصنوعی

کلاهبرداری به واسطه ساخت عکس و فیلم جعلی توسط هوش مصنوعی
امیرحسین صفدری وکیل دادگستری و پژوهشگر علم حقوق
به عنوان یک پژوهشگر علم حقوق این نکته مهم را باید بگویم که تا قبل از ظهور هوش مصنوعی تغییر محتوای عکس و یا صدا و یا فیلم افراد بسیار کار سختی بود، و هر کسی نمی توانست چنین تغییراتی را ایجاد کند؛ اما این روزها با ظهور و پیشرفت هوش مصنوعی، و به کمک جعل عمیق افراد مبتدی هم به راحتی می توانند دست به ساخت فیلم و یا عکس و یا صدا جعلی و فیک بزنند، چرا که هوش مصنوعی قدرت چشمگیری در ساخت چنین محتوای جعلی دارد.
باید آگاه باشیم و بدانیم که افراد سودجو می توانند یک عکس یا فیلم جعلی جهت ترویج موضوع مدنظر خود را توسط هوش مصنوعی خیلی دقیق و منظم تولید کنند که این مسله ممکن است خطرات زیادی را برای افراد به همراه داشته باشد، چرا که افراد جامعه چون از قدرت هوش مصنوعی آگاه نیستند ممکن است به سادگی آن عکس و یا ویدیو های جعلی و ساختگی را باور کنند و اینگونه افراد جامعه دچار آسیب های مادی و معنوی زیادی بشوند که بعضا قابل جبران نمی باشد.
طبق اخبار جهانی منتشر شده، کلاهبرداری هایی که این روزها در اکثر کشورهای دنیا به کمک هوش مصنوعی زیاد رخ می دهد تغییر صدای افراد است، بدین صورت که اکثر ما صدای واقعی اعضای خانواده و یا دوستان و یا افراد معروف را می شناسیم، و هوش مصنوعی می تواند با تقلید دقیق این صداها بطوری که ما اصلا متوجه جعلی بودن آن نشویم ما را قربانی خواسته خودشان کنند، کما این که این روزها شاهد این هستیم که با صدای خیلی از خوانندگان فوت شده آهنگ های جدید ساخته و پخش می شود که بسیار نزدیک و شبیه به صدای خود آن افراد می باشد که به سادگی قابل تشخیص نمی باشد.
باید بگویم که هوش مصنوعی به روش جعل عمیق یا دیپ فیک می تواند صدای افراد را خیلی دقیق تقلید کند به گونه ای که تا حد زیادی مشابه صدای واقعی آن افراد باشد؛ متاسفانه این افراد سودجو از پروفایل های رسانه های اجتماعی افراد در فضای مجازی قسمتی از صدای یکی از افراد خانواده یا آشنایان شما را بدست می آورند و از هوش مصنوعی برای تکرار صدا و برقراری تماس تلفنی جعلی با یکی از اعضای خانواده یا دوستان آن فرد برای درخواست پول و یا هر کار دیگری برای مواقع اضطراری استفاده می کنند و شما هم که به آن صدا شک نمی کنید درخواست طرف مقابل را قبول کرده و این گونه شما قربانی این افراد سودجو به کمک هوش مصنوعی می شوید.
هموطنان عزیز نسبت به قدرت هوش مصنوعی این روزها توجه ویژه داشته باشید چرا که ساده انگاری شما ممکن است برای شما خطرآفرین باشد، این سواستفاده ها ممکن است مانند: تماس تلفنی یا ویس در فضای مجازی و... با فردی نزدیک به شما انجام شود و تقاضایی از شما باشد که تشخیص جعلی بودن آن را نمی دهید که این صدا واقعی است یا جعلی و شما به آن صدا اعتماد می کنید و تقاضای آن فرد آشنا را انجام می دهید در صورتی که اصلا آن شخص خودش خبر ندارد که چنین اتفاقی رخ داده است.
پس آگاه باشید و بدانید که بهتر است برای این که قربانی چنین کلاهبرداری توسط جعل عمیق که به کمک هوش مصنوعی این روزها زیاد انجام می شود، نشوید در هنگام تماس با نزدیکان خود و یا افراد دیگر اگر شک کردین که این صدا ممکن است جعلی باشد و یا متعلق به آن فرد نباشد حتما سوالات خصوصی و شخصی که خود شما و آن فرد از آنها آگاهی دارید را بپرسید تا مطمئن شوید صدا متعلق به آن شخص بوده و جعلی نمی باشد.
چرا که اکثر قربانیان در این روش می گویند من مطمئن بودم که آن صدا متعلق به برادر یا مادر یا دوست نزدیک من بوده اما بعد از این که آن فرد را دیدن و ماجرا را برایش توضیح داده اند و آن فرد اظهار بی آگاهی کرد شما تازه آن موقع متوجه می شوید که قربانی کلاهبرداری به واسطه هوش مصنوعی و جعل عمیق شده اید، هرگز این روزها به هر چیزی که در فضای مجازی مشاهده می کنید اعتماد نکنید و اصل را بر جعلی بودن قرار بدهید مگر آن که از اصالت آن اطمینان کامل حاصل کنید.