Алаяқтар қазақ тілінде адамдарды алдау үшін жасанды интеллектіні пайдалана бастады

ҚР ІІМ баспасөз қызметі соңғы уақытта алаяқтар адамдарды қазақ тілінде алдауы үшін заманауи технологияларды, соның ішінде жасанды интеллектіні кеңінен пайдаланып жүргенін ескертеді, деп хабарлайды Zakon.kz.
Белігілі болғандай, олар банк, құқық қорғау органдары немесе туыстарыңыздың атынан хабарласып, шынайы адамның дауысын дәл салып, сеніміңізге кіруге тырысады.
"Тіпті Deepfake технологиясын қолдана отырып, танымал тұлғалардың немесе жақын жандарыңыздың бейнесін шынайы етіп жасап, бейнеқоңырау шалу арқылы алдауға дейін барады. Мұндай әдістерді қолдану – адам психологиясына әсер етіп, тез шешім қабылдауға мәжбүрлейді. Жеке деректеріңізді – ЖСН, банк шоты, құпиясөздер мен SMS арқылы келетін кодтарды ешкімге бермеңіз. Ақпаратты тек ресми және расталған дереккөздерден алыңыз", - дейді полициядағылар.
Полиция қызметкерлері күмән тудыратын хабарламалар мен қоңырауларға аса мұқият болуға кеңес береді. Эмоциясыз дауыс, қисынсыз сөйлемдер мен асығыс әрекетке итермелейтін сөздер – алаяқтардың айқын белгілері.
Бұған дейін ІІМ шетелге демалуға баруды жоспарлап отырған ел азаматтарына үндеу жасаған еді.
Мақаламен бөлісу
Оқи отырыңыз
Если вы видите данное сообщение, значит возникли проблемы с работой системы комментариев. Возможно у вас отключен JavaScript