شگرد جدید کلاهبرداری؛ صدایی که از عزیزانتان میشنوئید، واقعی نیست!
▫️«چندساعت پیش تماسی با خاله ام گرفته شد و گفتند: پسر شما تصادف کرده، حالش وخیم است، او را به بیمارستان امام حسین بردیم و باید سریع پول واریز کنید تا عمل کنید. بعد از گوشی را به پسرش داد، صدایی دقیقاً مثل خودش! همون لحن، همون تکیه کلام ها.»
▫️این جملات بخشی از روایتی است که کاربری ایرانی به تازگی در شبکه اجتماعی ایکس آن را منتشر کرده و از برخورد با کلاهبرداری با هوش مصنوعی و درخواست واریز وجه به نام یکی از افراد آشنا نوشته شده است.
▫️اتفاقی که در ماه های متعددی از آن توسط مردم ایرانی گزارش شده و بر اساس آمارهای بین المللی به سرعت در جهان در حال گسترش است.
▫️این نوع از کلاهبرداری به کمک «دیپ فیک» انجام می شود. یک رسانه مصنوعی شامل تصویر، ویدئو یا فایل صوتی که در آن چهره یا صدای فرد با استفاده از هوش مصنوعی تغییر داده یا می شود.
ارژنگ ملک، رئیس کارگروه ارتباط با صنعت کمیته هوش مصنوعی و علم داده نظام صنفی رایانه ای استان تهران:
▫️اگر با تماس های مربوط به درخواست کمک مالی از سوی افراد آشنا روبه روبه رو شدید، صرفاً به یک صدا بسنده نمی شود و اگر ممکن است تماس تصویری کنید یا آن تماس را قطع کنید و خودتان مستقیم با فردی که تماس بگیرید، تماس برقرار کنید تا بتوانیم چندمرحله ای انجام شود.
▫️نکته دوم این است که اساساً کلاهبرداران از ترس و عجله قربانیان سوءاستفاده می کنند و آنها را در معرض تصمیم عجولانه قرار می دهند. در این شرایط باید خونسردی خود را حفظ کنیم تا تصمیم عاقلانه بگیریم و درگیر هیجان و فشار آن تماس صوتی نشویم./
هیچ نظری موجود نیست:
ارسال یک نظر