Алаяқтар жасанды интеллект көмегімен қазақша «сөйлей» бастады. Осылай деген ІІМ өкілдері қазақстандықтарға ескерту жасады. Құқық қорғаушылардың айтуынша, әккілер нақты адамның дауысын салып, банк немесе полиция қызметкері және жақын туыс ретінде қоңырау шалып, ақпарат сұрауы мүмкін. Сондай-ақ, олар deepfake технологиясын қолданып, танымал тұлғалардың немесе туыстарыңыздың жалған бейнежазбасын да жібере алады. Осы ретте, полицейлер азаматтарға күмән тудыратын хабарламалар мен қоңырауларға аса мұқият болуға кеңес беріп, жеке деректерді ешкімге бермеуді ескертеді.
Армангүл Тоқтамұрат
