دیپ‌فیک به عنوان یک فناوری پیشرفته هوش مصنوعی، توانسته تصاویر و ویدیو‌هایی جعلی، اما واقعی‌نما تولید کند که تشخیص آنها را دشوار کرده است. با رشد حملات سایبری و کلاهبرداری دیجیتال، این فناوری به تهدیدی جدی برای امنیت اطلاعات و هویت افراد تبدیل شده است. مطمئناً در سال‌های اخیر، عکس‌ها و فیلم‌های بسیاری دیده‌اید که […]

دیپ‌فیک به عنوان یک فناوری پیشرفته هوش مصنوعی، توانسته تصاویر و ویدیو‌هایی جعلی، اما واقعی‌نما تولید کند که تشخیص آنها را دشوار کرده است. با رشد حملات سایبری و کلاهبرداری دیجیتال، این فناوری به تهدیدی جدی برای امنیت اطلاعات و هویت افراد تبدیل شده است.

مطمئناً در سال‌های اخیر، عکس‌ها و فیلم‌های بسیاری دیده‌اید که شکی نداشتید که کاملا واقعی است، اما با جست‌وجوی اخبار متوجه شدید که کاملا جعلی بوده؛ این جادوی فناوری دیپ‌فیک است.

در سال‌های اخیر، عکس‌ها و فیلم‌های جعلی بسیاری از افراد مشهور با استفاده از فناوری «دیپ‌فیک» ساخته و در فضای مجازی منتشر شده است و به دنبال آن بینندگان بدون توجه به واقعی بودن آن، فیلم‌ها و تصاویر منتشر شده را باور کرده و از طریق اشتراک‌گذاری، به انتشار بیشتر آن کمک کردند.

تصاویر و فیلم‌هایی که هیچ‌گونه انطباقی با حقیقت ندارند، اما آنقدر واقعی است که به‌سختی می‌توان متوجه جعلی بودن آن‌ها شد. بسیاری از سیاست‌مداران معروف همچون ترامپ و اوباما و بازیگران و سلبریتی‌ها و مدیران مطرح دنیای فناوری مانند تیلور سوییفت و مارک زاکربرگ، همگی از افرادی بودند که در چند سال اخیر به واسطه عکس‌ها و فیلم‌های جعلی یا سخنرانی‌های ساختگی، به‌نوعی درگیر این فناوری دردسرساز شده‌اند.

به نحوی که در فرایند برگزاری انتخابات ریاست‌جمهوری آمریکا، برخی شرکت‌های نرم‌افزاری بزرگ دنیا طرحی برای انجام اقدامات جدی‌تری در مبارزه با اخبار جعلی و دیپ‌فیک را در نظر گرفتند و حتی سازمان اطلاعات آمریکا (FBI) نیز طی بیانیه‌ای درباره ویدئو‌هایی که با استفاده از دیپ‌فیک ساخته شد و پیش از برگزاری انتخابات در فضای مجازی منتشر شد، هشدار داده بود.

دیپ فیک چیست؟

دیپ فیک (DeepFake) یک تکنولوژی تقریبا جدید در حوزه هوش مصنوعی است. اصطلاح «دیپ فیک» یا «جعل عمیق» از ترکیب دو واژه Deep به معنای عمیق و Fake به معنای جعلی و دروغین ساخته شده است.

سال ۲۰۱۴ میلادی شخصی به‌نام یان گودفلو (Ian Goodfellow)؛ یکی از پژوهشگران حوزه یادگیری ژرف و هوش مصنوعی، سیستم شبکه مولد تخاصمی (Generative Adversarial Network به اختصار GAN) شامل دو مدل مولد و متمایزگر را، به دنیای تکنولوژی معرفی کرد؛ شبکه‌های رقابتی مولد به‌عنوان ابزاری در سیستم‌های هوش مصنوعی برای تولید عکس‌ها و ویدیو‌های ساختگی (که در حال حاضر دیپ‌فیک نامیده می‌شود)، به کار می‌روند.

این کشف جدید پس از سه سال، توسط فردی در ساخت یک ویدئو به کار گرفته شد و کاربری که این فناوری را در سال ۲۰۱۷، استفاده کرد نام آن ویدئو را «دیپ‌فیک» گذاشت و ژانر جدیدی با نام «دیپ‌فیک» خلق شد.

به این ترتیب، فناوری هوش مصنوعی مرز‌های تکنولوژی را در حوزه «جعل» بسیار پیش برد و اگر در گذشته امکان داشت تنها یک عکس، توسط نرم‌افزار‌های گرافیکی دستکاری شود و چیزی خلاف واقع یا به قول معروف فتوشاپی، به بیننده ارائه شود، امروزه فناوری خطرناکتری ایجاد شد که می‌تواند چهره و صدای افراد را به‌طرز شگفت‌آوری جابه جا و یا تقلید کند و در قالب ویدیو‌های باورپذیر منتشر کند.

فناوری دیپ‌فیک می‌تواند بر مبنای هوش مصنوعی، تصاویر و ویدیو‌های جعلی، اما «واقعی‌نما» تولید کند و هر فردی را تحت تاثیر خود قرار دهد.

دیپ فیک‌ها با بهره‌گیری از یادگیری ژرف (Deep Learning) و حجم عظیمی از داده‌ها و شبکه عصبی مصنوعی ساخته می‌شوند و نتیجه محاسبات پیچیده‌ای هستند که می‌توانند به‌عنوان مثال از دو منبع تصویری مجزا، یک ویدیوی جعلی جدید بسازند، این دستکاری تنها به ویدیو خلاصه نمی‌شود و با استفاده از آن می‌توان صدا را هم جعل کرد به نحوی که شخصی جمله‌ای را در یک فیلم بگوید که هیچ‌گاه در واقعیت نگفته است.

با وجود اینکه در سال‌های اخیر، بر سواد رسانه‌ای و توجه به «سند» و «واقعیت» برای پرهیز از فریب خوردن با محتوا‌های جعلی تاکید شده، اما با پیشرفت این فناوری، به نوعی سند‌ها و فکت‌های جعلی تولید شده است و این امر گاهی تشخیص حقیقت را غیرممکن کرده است که موضوعی بسیار خطرناک است.

افزایش کلاهبرداری و جرایم سایبری با استفاده از هوش مصنوعی و دیپ‌فیک

از آنجا که مجرمان سایبری با پیشرفت راه‌های امنیتی در فضای دیجیتال، به تطبیق تکنیک‌ها و روش‌های خود برای یافتن راه‌های جدید ادامه می‌دهند و به دنبال کشف روش‌های جدیدتری هستند، کلاهبرداری با کمک هوش مصنوعی در سطح جهانی به‌طور فزاینده‌ای در حال رشد است.

تحقیقات نشان می‌دهد، در سال ۲۰۴۴ برای اولین بار، جعل اسناد دیجیتال از جعل اسناد فیزیکی، بیشتر شده است و جعل دیجیتال ۵۷ درصد از کل تقلب در اسناد را به خود اختصاص داد.

طبق تحقیقات جهانی، در سال ۲۰۲۴ هر پنج دقیقه یک حمله دیپ‌فیک اتفاق می‌افتد، و جعل اسناد دیجیتال ۲۴۴ درصد نسبت به سال قبل افزایش پیدا کرده است.

این تحقیقات نشان‌دهنده افزایش ۲۴۴ درصدی جعل اسناد دیجیتال در سال ۲۰۲۴ نسبت به سال ۲۰۲۳ و افزایش ۱۶۰۰ درصدی نسبت به سال ۲۰۲۱ است که در آن سال تقریباً تمام اسناد تقلبی جعلی، اسناد فیزیکی بودند.

با افزایش روش‌های کلاهبرداری به کمک هوش مصنوعی، کلاهبرداران اکنون می‌توانند از حملات پیچیده‌تری در مورد اسناد، به ویژه کارت‌های شناسایی (۴۰.۸ ٪ از حملات در سطح جهانی) استفاده کنند.

کلاهبرداران سایبری از پلتفرم‌های «X as a service» (هر نوع سرویسی که بتوان در محیط اَبر و از هر جای دنیا و در لحظه ارائه کرد، مانند خدمات زیرساخت و نرم افزارها) برای فیشینگ، کلاهبرداری و باج‌افزار استفاده می‌کنند.

اشتراک‌گذاری دانش «best practices» (روال مطلوب: روش یا تکنیکی که منجر به نتایج بهتری نسبت به روش‌های دیگر شده و به‌دلیل اینکه به‌طور عام توسط گروهی از افراد خبره یک رشته یا موضوع پذیرفته شده، به‌عنوان یک شاخص استفاده می‌شود.) و استفاده از ابزار‌های هوش مصنوعی مولد GenAI (نوعی از هوش مصنوعی که محتوای جدیدی مانند متن، تصاویر، فیلم و صدا تولید می‌کند) ایجاد حملات جعل دیجیتال و حملات تزریقی (Injection) پیچیده را تسهیل می‌کند.

در یک حمله از نوع تزریقی، مهاجم یک برنامه با ورودی مشکوک را تحت تأثیر قرار می‌دهد، به این صورت که مفسّر وب این ورودی را به‌عنوان بخشی از یک دستور پردازش می‌کند و نحوه اجرای آن نرم افزار را تغییر می‌دهد.

حملات تزریقی، قدیمی‌ترین و مضرترین حملات علیه برنامه‌های کاربردی وب هستند، این حملات ممکن است منجر به از دست دادن داده‌ها، از بین رفتن یکپارچگی داده‌ها، سرقت داده‌ها، انکار سرویس و به خطر افتادن کلی سیستم شود، معمولاً اصلی‌ترین علت آسیب‌پذیری از طریق حملات تزریقی اعتبار سنجی ناکافی ورودی کاربران است.

افزایش کلاهبرداران آماتور و غیرسازمان‌یافته

هرچند از لحاظ تاریخی، بزرگترین تهدید‌ها از طریق حلقه‌های کلاهبرداری سازمان‌یافته بوده است. اما با توجه به تحقیقات انجام شده، احتمالاً با پیشرفت تکنولوژی در زمینه هوش مصنوعی، تعداد کلاهبرداران آماتور و مجرمان غیرسازمان‌یافته افزایش پیدا می‌کنند، که این افراد هم حجم حملات و هم تعداد حملاتی که از تکنیک‌های پیچیده استفاده می‌کنند، را افزایش می‌دهند.

دیپ‌فیک، به این دلیل مورد توجه سازمان‌های جهانی قرار گرفته است، که ترفند‌های کلاهبرداری در فضای مجازی مانند فیشینگ، که تشخیص آن‌ها نسبتاً راحت است، به‌سرعت جای خود را به دیپ‌فیک‌های بیش از حد واقعی و هویت‌های مصنوعی تولید شده توسط هوش مصنوعی می‌دهد.

افزایش نرم‌افزار‌های تعویض چهره و ابزار‌های GenAI به کلاهبرداران این امکان را می‌دهد تا حملات کلاهبرداری بیومتریک (جعل هویت اشخاص) را بسیار باورپذیر انجام دهند. ظرفیت استفاده مخرب از این فناوری بسیار گسترده است و شامل افتتاح حساب‌های تقلبی، تصاحب حساب، کلاهبرداری‌های فیشینگ و کمپین‌های اطلاعات نادرست می‌شود.

حوزه‌های مالی؛ هدف اصلی مجرمان

سه هدف اصلی مجرمان در سطح جهان (سال ۲۰۲۴) همگی مربوط به خدمات مالی در سه حوزه رمزارزی، بانکی و بانک‌های سنتی بود، به‌طوری که تلاش برای کلاهبرداری در حوزه ارز‌های دیجیتال تقریباً دو برابر تعداد تلاش‌ها در مقایسه با سایر حوزه‌ها بود.

پلتفرم‌های کریپتو (رمزارزی) بالاترین آمار در زمینه تلاش برای کلاهبرداری را به خود اختصاص داده‌اند که نسبت به سال گذشته ۵۰ درصد افزایش یافته و از ۶.۴ درصد در سال ۲۰۲۳ به ۹.۵ درصد در سال ۲۰۲۴ رسیده است. این موضوع می‌تواند به دلیل رسیدن رمزارز‌ها به بالاترین قیمت خود در سال ۲۰۲۴ باشد و این موضوع، فعالیت در زمینه رمزارز‌ها را برای کلاهبرداران بسیار جذاب کرده است.

بنابراین، تغییرات بسیاری که در چشم‌انداز کلاهبرداری جهانی، از طریق افزایش قابل توجه حملات پیشرفته و مبتنی بر هوش مصنوعی ایجاد شده است، هشداری است که همه مدیران کسب‌وکار‌ها و کاربران باید آن را جدی بگیرند.

آخرین اطلاعات و داده‌ها نیز بر این روند هشداردهنده تأکید می‌کند و نشان می‌دهد که کلاهبرداران چگونه به سرعت در حال تکمیل و بهبود روش‌ها و تکنیک‌های خود هستند. از آنجا که این تهدید‌های فراگیر، دولت و افراد را به طور یکسان تحت تأثیر قرار می‌دهند، تیم‌های امنیتی برای پیش افتادن از کلاهبرداران، باید استراتژی‌های خود را دائما به روزرسانی کنند و با روش‌های جدید تطبیق دهند، و نظارت بر این تهدید‌ها را در اولویت قرار دهند و سازمان‌های خود را برای رویارویی با این واقعیت جدید آماده کنند. این موضوع امری اجتناب‌ناپذیر است که راه فراری از آن وجود ندارد.

چگونه دیپ فیک را تشخیص دهیم؟

هرچند توجه رسانه‌ها و کاربران اینترنتی به پدیده «دیپ‌فیک» کم‌رنگ شده است اما، تکنیک دیپ‌فیک همچنان در فهرست تکنولوژی‌های شگفت‌آور قرار دارد و پژوهشگران بسیاری در حال بهبود روش‌های آن هستند.

برای کشف و جلوگیری از گسترش دیپ‌فیک نیز باید از هوش مصنوعی کمک گرفت. در حال حاضر، راه‌هایی وجود دارد تا یک عکس یا ویدیوی جعلی را تشخیص داد. دقت در نشانه‌های زیر می‌تواند به تشخیص یک تصویر یا ویدئوی جعلی کمک می‌کند:

وجود ناهماهنگی در پوست یا موی شخص؛ مخصوصا جایی که تار‌های مو در حاشیه عکس قابل مشاهده است.

دقت به لبه صورت‌های جابه‌جا شده؛ تکنولوژی دیپ فیک هنوز نمی‌تواند لبه‌های چهره را بدون نقص جابه‌جا کند و در طول یک ویدیو، هنگام حرکت سر سوژه، احتمال زیادی دارد که بشود دیپ فیک را تشخیص داد.

دقت در نورپردازی تصویر؛ جواهرات و دندان‌هایی که بازسازی بدی دارند و افکت‌های نورپردازی عجیبی مانند انعکاس نور در چشم، می‌تواند دیپ‌فیک را لو دهد.

دقت به نور عکس یا فیلم؛ اکثر الگوریتم‌های دیپ‌فیک نور فیلمی را که به‌عنوان مدل برای فیلم جعلی مورد استفاده قرار گرفته حفظ می‌کند، که با نورپردازی در ویدیوی هدف مطابقت ندارد.

عدم تطابق صدای ویدیو با حرکات دهان شخص؛ مخصوصا اگر صدای اصلی فیلم جعلی با دقت دستکاری و تنظیم نشده باشد.

  • منبع خبر : خبرگزاری میزان