Dreamstime / PhotoXPress

Дипфейк – жаңа заман алаяқтығы

31.07.2025 10:09

Цифрлық технологиялар дамыған сайын ақпаратты бұрмалаудың да мүмкіндіктері артып келеді. Соның ең қауіпті әрі күрделі көріністерінің бірі — дипфейк (deepfake). Бұл — жасанды интеллект пен терең оқыту алгоритмдері арқылы адамның бейнесі мен дауысын шынайы етіп көшіріп, жалған контент жасау технологиясы. Алғашында ойын-сауық пен креатив үшін пайдаланылған бұл құрал қазір алаяқтық, саяси манипуляция, жалған ақпарат тарату және кибербуллинг сынды ауыр мәселелерге себеп болып отыр.

Дипфейк деген не? Ол қалай пайда болды?

Дипфейк – жасанды интеллект көмегімен адамның бейнесі мен дауысын шынайы көрінетін етіп өзгерту технологиясы. «Deep learning» (терең оқыту) және «fake» (жалған) сөздерінен құралған дипфейк технологиясы адамның түрі мен даусын нейрожелілер арқылы өңдейді.  Жасанды интеллект үлкен көлемдегі бейне, аудио немесе фото деректерін үйреніп, нақты бір адамның мимикасын, сөйлеу мәнерін, дауыс екпінін айнытпай «көшіре» алады. Соның нәтижесінде ешқашан айтылмаған сөздер мен болмаған әрекеттер видеоға шынайы көрініспен түсіріледі. Бұл технология бастапқыда зерттеу және ойын-сауық мақсатында қолданылса да, уақыт өте келе ол ақпараттық манипуляция мен жалған мәлімет таратудың құралына айналды. Дипфейктің тарихы салыстырмалы түрде қысқа, бірақ оның қоғамға әсері ауқымды.

Дипфейк – жаңа заман алаяқтығы

Дипфейктің негізінде терең оқыту (deep learning) мен генеративті қарсы желілер (GANs – Generative Adversarial Networks) жатыр. GANs жүйесі 2014 жылы Иэн Гудфеллоу есімді ғалымның ұсынысымен жасалды. Бұл жүйеде екі нейрондық желі – генератор мен дискриминатор бір-бірімен бәсекеге түсіп, шынайыға ұқсайтын бейнелерді дамытады. 

«Дипфейк» термині алғаш 2017 жылы Reddit платформасында қолданылды. Белгісіз қолданушы танымал актрисалардың бейнелерін порнографиялық видеоларға біріктіріп, жалған роликтер жариялады. Ол өзінің аккаунтын «deepfakes» деп атаған. Бұл оқиға қоғамда үлкен дау тудырып, дипфейкке қарсы алғашқы реакция пайда болды.

2018 жылдан бастап дипфейк технологиясы ашық бағдарламалар арқылы қолжетімді бола бастады. «DeepFaceLab», «Faceswap», «Zao», «Reface» сияқты қосымшалар кез келген адамға дипфейк жасауға мүмкіндік берді. Осы кезеңде дипфейк тек технологиялық тәжірибе емес, әлеуметтік, саяси, мәдени алаңда да талқылана бастады.

Дипфейк арқылы таралған жалған бейне мен аудио адамдарды шатастырып, үлкен ақпараттық дағдарыс туғызуы мүмкін. Әсіресе сайлау кезеңінде немесе әлеуметтік наразылық жағдайында мұндай құралдар қоғамды арандату үшін пайдаланылады. Мысалы, әлемде көптеген танымал тұлғалар дипфейктің құрбаны болды. АҚШ-та саясаткерлердің жалған видеолары, Еуропада танымал актерлердің «қатысуымен» таралған фейктер қоғамда дүрбелең тудырған.Енді солардың бірқатарына назар аударайық.

Дипфейк технологиясы сайлау алдындағы кезеңдерде кандидаттарға жала жабу, жалған мәлімдеме жасату үшін пайдаланылуы мүмкін. Соның бір мысалы, 2020 жылы Габон президенті Али Бонгоның дипфейк видеосы елде төңкеріс жасауға себеп болды.

Көптеген елдерде белгілі адамдардың немесе танымал тұлғалардың жалған видеолары әлеуметтік желіде тарап, дау туғызған. Бұл үрдіс deepfake blackmailing — яғни жалған компромат арқылы бопсалау әдісіне айналды. «deeptomcruise» атты TikTok аккаунтында жарияланған видеоларда танымал актер Том Круз бейнеленген. Бұл видеолар өте шынайы жасалғаны сонша, миллиондаған көрермен оны нақты Круз деп ойлаған. Кейін бұл жобаның кәсіби дипфейк мамандардың тәжірибесі екені белгілі болды.

Дипфейк технологиясының ең көп қолданылатын бағыты — порнографиялық контент. Sensity AI зерттеуі бойынша, дипфейк видеолардың 96%-ы жыныстық мазмұндағы жалған роликтер. 2024 жылы әлеуметтік желіде Тейлор Свифттің дипфейк негізінде жасалған интимдік видеосы таралып, үлкен резонанс туғызды. Бұл жағдай жаппай наразылыққа ұласып, дипфейкке қарсы заңнамаларды күшейтуге себеп болды. АҚШ пен Еуропа елдері осыдан кейін сексуалды дипфейктерге қарсы заң жобаларын жеделдетті.

2021 жылы Гонконгта бір компания басшысы дипфейк арқылы жасалған Zoom қоңырауына алданып, 35 миллион доллар аударған. Себебі қарсы тарап оның бастығының дауысын және бейнесін дәл көшіріп, жалған келісім жасаған. Сонымен қатар интернетте Илон Масктың дипфейк бейнесі арқылы жалған инвестициялық жарнама тараған. Онда ол криптовалютаға ақша салуға үндейді. Бұл видеоға сенген кей азаматтар қаражаттарын алаяқтарға аударған.

Британдық энергетикалық компанияда орын алған жағдай — бұл қауіптің қаншалықты шынайы екенін көрсетеді. Компанияның бір бөлім басшысы бас кеңсе басшысының даусын дәл еліктеген deepfake аудионы естіп, еш күмәнданбастан 220 000 еуроны алаяқтарға аударып жібереді. Алаяқтар шебер дайындалған. Жасанды интеллект көмегімен басшының дауысы, сөйлеу мәнері, акценті тіпті үзілістері мен тыныстары дәл көшірілген. Нәтижесінде бөлім басшысы еш күмәнданбай, көрсетілген есепшотқа шұғыл түрде қаражат аударады. Бұл соманың шын иесі – киберқылмыскерлер екені тек келесі аударым талап етілгенде ғана белгілі болған. Бірақ ол кезде кеш еді: ақша да, алаяқтар да ғайып болды.

2022 жылы әлеуметтік желілерде Зеленскийдің жалған видеосы тарап кетті, онда ол «Украина әскерлерін тізе бүгуге шақырады». Видео дипфейк екені анықталса да, біраз халық оны шынайы деп қабылдап үлгерген.

Комик Джордан Пил 2018 жылы АҚШ-тың бұрынғы президенті Барак Обаманың дипфейк видеосын жасап, адамдарды жалған ақпаратқа сенуден сақтануға шақырды. Бұл видео – дипфейктің қаншалық шынайы әрі қауіпті бола алатынын көрсеткен алғашқы танымал мысалдардың бірі.

Дипфейк тек манипуляция мен алаяқтық құралы емес. Оның оңтайлы әрі этикалық қолданылу мысалдары да жетерлік. Дипфейкті жақсы мағынада қолданған оқиғалар да бюар. Мәселен Дэвид Бекхэмнің 9 тілде сөйлеген видеосы — безгекке қарсы қоғамдық хабарландыру жобасы. Бұл жоба түрлі елдердегі адамдарға түсінікті болу үшін жасанды интеллект көмегімен жасалды.

Ал Флоридадағы Сальвадор Дали мұражайы — атақты суретшіні дипфейк арқылы «қайта тірілтті». Дали бейнесін жасау үшін 6000 фотосурет, 1000 сағаттық оқыту материалы, 145 актерлік кадр және ондаған сұхбат қолданылған. Нәтижесінде, көрермендер Далимен сөйлесе алды, тіпті бірге селфи жасау мүмкіндігі болды.

Біздің елімізде де көріністері жоқ емес

Жақында әлеуметтік желілерде америкалық танымал рэпер JAY-Z Қазақстан Президентіне арнап рэп оқыды деген бейнеролик тарап кетті. Көп ұзамай бұл бейне мыңдаған қаралым жинап, қолданушылар арасында түрлі пікірлерге түрткі болды. Бірі мұны мәдени дипломатияның жаңа кезеңі деп бағаласа, енді бірі JAY-Z-ді Қазақстан мен АҚШ арасындағы мәдени байланыс елшісі болғалы жатыр деп топшылады. Алайда, көп ұзамай бұл бейнежазбаның шындыққа жанаспайтыны анықталды. Ол – жасанды интеллект пен нейрожелілердің көмегімен жасалған дипфейк бейне еді. Бұл жайт ел ішінде дипфейк технологиясының шынайылықты алмастыру қабілеті бар екенін көрсетті.

Жуырда танымал тележурналист, продюсер, қоғам қайраткері Дана Нұржігіт Instagram парақшасында алаңдаушылық білдірген жазбасымен бөлісті. Ол жариялаған бейнероликте оның Димаш Құдайбергенмен жасаған сұхбаты жасанды интеллект арқылы бұрмаланып, белгісіз бір компанияның жарнамасына айналып кеткен. Бейне жазба Дана Нұржігіттің Димашқа: «Маңызды ақпаратыңмен бөліскің келгенін білеміз...» деген сөзімен басталады. Видеоның сапасы соншалық – дауыс, мимика, бет-әлпет толықтай шынайы әсер қалдырады. Мұндай фейк жарнаманы бір қарағанда ажырату қиын. Журналист парақшасында «Абайлаңыздар, deepfake! Жасанды интеллект Димаш екеумізді де фейк жарнамаға қосыпты! Сенбеңіздер!» – деп жазды. Бұл жазба желіде қызу пікірталас туғызды. Кейбір қолданушылар жасанды интеллекттің ықтимал зиянына алаңдаушылық білдірсе, енді біреулері Димаш пен Дана Нұржігітке сенетінін жазған.

Соңғы күндері Қазақстанның ақпараттық кеңістігінде дипфейк технологиясымен жасалған тағы бір жалған бейне қоғам назарын аударды. Бұл жолғы нысана — еліміздің премьер-министрінің орынбасары, Сыртқы істер министрі Мұрат Нұртілеу. Интернетте тараған видеода Мұрат Нұртілеу қазақстандық журналистпен сұхбаттасып отырғандай көрініс жасалған. Онда вице-премьердің аузынан Ресей Федерациясының әскери-әуе кемелерінің Қазақстан аумағында еркін ұшуын «толық заңдастырдық» деген мәлімдеме айтылып, журналист те бұл сөзді растай түседі. Видеоны көргендер бірден дүрлігіп, әлеуметтік желілерде пікірлер жаудырды. Алайда құзырлы мемлекеттік органдар аталған ақпаратты жалған дипфейк деп таныды. Бейне жазба жасанды интеллекттің көмегімен өңделген және ешбір шынайы дерекке негізделмеген. Қазіргі таңда бұл жағдай бойынша тиісті тексеріс жұмыстары жүргізілуде.

Ақпарат және қоғамдық даму министрлігі, сондай-ақ Сыртқы істер министрлігі азаматтарды жалған ақпаратқа сенбеуге және тек ресми дереккөздерге сүйенуге шақырды. Сонымен қатар, дипфейк видеолардың таралуы – ақпараттық арандатушылық пен қоғамды адастыру мақсатын көздейтін қауіпті әрекет екені атап өтілді.

Бұл оқиғалар deepfake-тің етек алып келе жатқан қауіпті тенденция екенін көрсетеді. Әсіресе жарнамада қолданылуы заңмен нақты реттелмеген жағдайда, көптеген тұлғалардың бейнесі рұқсатсыз пайдаланылып, қоғамда жалған ақпарат таралуы мүмкін.

Дипфейкке қарсы заңдар

Meta, Google, Microsoft сынды ірі технологиялық компаниялар дипфейкті анықтайтын алгоритмдер жасап шығаруда. YouTube пен TikTok платформалары дипфейк видеоларын белгілеп көрсету немесе мүлде жою шараларын енгізіп жатыр. Дипфейкті тек технологиямен емес, білім мен сыни ойлау арқылы да жеңуге болады. Медиа сауаттылық – ең тиімді қару. Дипфейк — заманымыздың ең қауіпті, әрі күрделі ақпараттық құбылыстарының бірі. Ол шекара мен мемлекетті, әлеуметтік топ пен жас ерекшелігін танымайды. Шын мен жалғанның арасын бұзып, сенімге сызат түсіретін бұл технологияның таралуы — қоғамға, демократияға, мәдениетке төнген ашық қауіп. Осыған байланысты әлемнің бірнеше елі дипфейкке қарсы заңнамалық шаралар қабылдауда.

2025 жылдың қаңтарында Ұлыбритания үкіметі сексуалды сипаттағы дипфейк бейнелерін жасау мен таратуды қылмыстық әрекет деп таныды. Жаңа заң бойынша, мұндай материалдарды жасаған немесе таратқан тұлғалар екі жылға дейін бас бостандығынан айырылуы мүмкін. Бұл шаралар әйелдер мен қыздарды онлайн қорлаудан қорғауға бағытталған.

2024 жылдың қыркүйегінде Оңтүстік Корея Ұлттық Ассамблеясы сексуалды сипаттағы дипфейк бейнелерін көру немесе сақтау әрекеттерін қылмыс деп таныды. Жаңа заң бойынша, мұндай материалдарды қараған немесе сақтаған тұлғалар үш жылға дейін түрмеге қамалуы немесе 30 миллион вон (шамамен 22,600 АҚШ доллары) көлемінде айыппұл төлеуі мүмкін. Бұған дейін мұндай материалдарды жасау және тарату әрекеттері үшін бес жылға дейін бас бостандығынан айыру немесе 50 миллион вон (шамамен 38,000 АҚШ доллары) айыппұл қарастырылған болатын.

АҚШ-та дипфейкке қарсы заңдар көбінесе штаттық деңгейде қабылдануда. АҚШ-тың бірнеше штатында дипфейк қолдануды шектеу туралы заң қабылданды. Еуроодақ та «Digital Services Act» арқылы мұндай контентке қарсы қатаң шаралар енгізіп жатыр. АҚШ: 2019 жылы Калифорния дипфейкті сайлау алдында қолдануға тыйым салды.Мысалы, Техас штатында 2023 жылдың қыркүйегінде сексуалды сипаттағы дипфейк бейнелерін жасау немесе тарату әрекеттері қылмыс деп танылды. Жаңа заң бойынша, мұндай әрекеттерді жасаған тұлғалар қылмыстық жауапкершілікке тартылады.

Еуропалық Одақтың «Әйелдерге қарсы зорлық-зомбылық туралы» директивасы дипфейк мәселесін де қамтиды. Директива бойынша, басқа адамның қатысуымен сексуалды әрекеттерді бейнелейтін дипфейк материалдарын жасау, тарату немесе сақтау әрекеттері қылмыс деп танылады. Сондай-ақ, мұндай материалдарды жасауға көмектесетін немесе ынталандыратын әрекеттер де қылмыстық жауапкершілікке жатады.

Қытай  2020 жылы дипфейк контентін жариялағанда нақты белгі қойылуын талап ететін заң қабылдады. Ал жақында Қытайдан келген бір топ зерттеуші deepfake-ке қарсы маңызды жаңалық ашты. Олар жасанды интеллект көмегімен deepfake бейнелерін нақты уақытта анықтау әдісін ұсынды. Бұл технология адамның көзіне байқалмайтын, бірақ deepfake бейнелерге тән ұсақ ауытқуларды есептеп, бейненің шынайылығына күмән тудыратын белгілерді автоматты түрде ажыратады. Сонымен қатар, зерттеушілер сандық фотосуреттер мен бейнелерді заңсыз пайдалану мен өңдеуден қорғаудың жаңа тәсілін ұсынды. Ол үшін олар бейнеге адам көзіне көрінбейтін сандық шу (noise) қосады. Бұл шу deepfake алгоритмдерінің бейнені дұрыс өңдеуіне кедергі келтіреді, нәтижесінде жалған бейнені жасау қиындай түседі.

Дипфейк технологияларының дамуы қоғамда жаңа қауіптер туғызуда. Әлем елдері осы қауіптерге қарсы заңнамалық шаралар қабылдап, азаматтардың құқықтарын қорғауға бағытталған қадамдар жасауда. Қазақстан да осы бағытта заңнамалық бастамалар көтеріп, дипфейкке қарсы күресте белсенділік танытуда.

Қазақстанда дипфейкке қарсы заң қабылданбақ

Иә, алаяқтық пен жалған ақпарат таратуда жиі қолданылатын дипфейк технологиясы — бүгінгі қоғам үшін аса қауіпті құбылысқа айналды. Осыған байланысты Қазақстанда жаңа заң жобасы әзірленуде. Бұл туралы ҚР Парламенті Мәжілісінің депутаты Екатерина Смышляева айтты.

Депутаттың айтуынша, адамның түрін немесе дауысын шынайы етіп бейнелеп, оны алдау мақсатында пайдалану – заң аясында жазаланатын әрекетке айналады. «Мұндай контент көбіне белгілі адамдарға қатысты жасалады. Бұл жеке өмірге қол сұғу, қоғам пікіріне әсер ету, тіпті саяси тұрақтылықты бұзуға дейін апаратын құрал болуы мүмкін. Сондықтан дипфейк өнімдерін таратуға заңмен тыйым салу қажет», – деді Смышляева.

Жаңа заң жобасы бойынша: Жалған дипфейк контент жасағандарға айыппұл салынады; Алаяқтық мақсатта пайдаланса, қылмыстық жауапкершілікке тарту қарастырылады; Бұқараға танымал тұлғалардың келісімінсіз бейнесін, дауысын қолдануға тыйым салынады.

Біз бұл тыйымды заң жобасына енгіздік. Қазір дипфейк жасауға мүмкіндік беретін жүйелердің иелеріне 15-тен 100-ге дейін айлық есептік көрсеткіш (АЕК) көлемінде айыппұл салу қарастырылып отыр. Бұл – шамамен 59 мыңнан 393 мың теңгеге дейінгі сома. Айыппұл мөлшері кәсіпкерлік субъектісінің түріне байланысты белгіленеді, – деді депутат.

Депутаттың айтуынша, қазір Мәжіліс қабырғасында дипфейкті тарату фактілеріне қатысты Қылмыстық кодекске жаза енгізу қажет пе, жоқ па деген мәселе де талқыланып жатыр. «Қылмыстық кодекс – өте маңызды құрал. Сондықтан оны тек нақты құқықбұзушылық құрамы анықталғаннан кейін, тиісті сараптамалар мен келісімдерге сүйене отырып қана қолдану қажет. Бұл мәселеге өте мұқият қарау керек», – деп атап өтті Смышляева.

Депутаттардың бастамасы – қоғамды зиянды контенттен қорғауға жасалған алғашқы қадамдардың бірі. Алдағы уақытта дипфейкке қатысты заңнама күшейіп, Қылмыстық кодекс деңгейіне көтерілер болса, бұл саладағы жауапкершілік пен тәртіп едәуір артуы мүмкін.

Дипфейкті қалай тануға болады?

Мұндай технология дамыған сайын оны пайдаланып жасалатын алаяқтық түрлері де көбейіп отыр. Сондықтан да әрбір азамат дипфейкті ажыратуды үйренуі керек. 

Дипфейк – жаңа заман алаяқтығы

kinopoisk.ru

Дипфейк видеоларды немесе аудионы анықтау үшін келесі белгілерге назар аударыңыз:

Мимика мен көздің қозғалысы 

Жасанды интеллект адамның шынайы мимикасын 100% дәл қайталай алмайды. Көбіне көз жиі жыпылықтамайды немесе керісінше, тым жиі жыпылықтайды, еріннің қимылы айтылып жатқан сөздермен сәйкес келмейді, бет бұлшықеттерінің қозғалысы шынайы емес, тегіс көрінеді.

Сөйлеу мәнері мен дауыс 

Роботқа ұқсас, бірқалыпты, эмоциясыз дыбыс,  сөйлемдерде логикалық байланыс пен мәннің болмауы, тұтығу, кідіріс немесе дыбыстың сәл үзілуі.

Сапасы тым жоғары немесе тым төмен видео 

Жасанды бейнелер әдетте тым тегіс, мінсіз көрінуі мүмкін – бұл да күмән тудыруы керек. Керісінше, кейбір жағдайларда бет бұлыңғыр, бұрыштар анық емес болады. 

Дипфейк арқылы жасалатын алаяқтық түрлері

Интернетте танымал тұлғалар атынан жасалған бейнелерде «көп ақша табудың оңай жолдары» ұсынылады. Бұл видеоларда белгілі бір адам инвестициялық платформаны жарнамалап тұрады, «жоғары табысқа сенімді болу үшін» аздаған жарна немесе аванс сұралады, азаматтардан жеке деректерін қалдыру, карта нөмірін енгізу сұралады. Мұндай әрекеттердің бәрі – алаяқтық. Тек алаяқтар ғана жылдам пайда мен аз еңбекті уәде етіп, алдын ала төлем талап етеді. Енді олар бұл әрекеттерін ашық түрде емес, дипфейк арқылы жүзеге асыруда.   Жақын адамның бейнесімен қоңырау шалып, қаржылай көмек сұрау, танымал тұлғалар атынан инвестициялық ұсыныстар, ресми мекеме қызметкері ретінде сөйлесіп, жеке деректерді талап ету, банктен хабарласып тұрғандай көрініп, карта деректерін сұрау.

Осындай жағдайлардан қорғану үшін мына қауіпсіздік қағидаларын есте сақтаңыз: Сөйлесіп тұрған адамның шынайылығына көз жеткізіңіз, бейтаныс адаммен сөйлескенде бірнеше тосын сұрақ қойыңыз. Оның бет мимикасы, көз және қас қимылына назар аударыңыз — дипфейк көп жағдайда көздің табиғи қозғалысын дәл бере алмайды. Жарық пен көлеңке қалай түсіп тұрғанына қараңыз. Жасанды бейнеде жарық көзінің бағыты қисынсыз болуы мүмкін. Сенімді деректер – әрқашан қауіпсіздік кепілі емес. Қоңырау шалушы сіздің аты-жөніңізді, мекенжайыңызды, тіпті жеке ақпаратты білсе де, бұл – олардың ресми тұлға екенін дәлелдемейді.  Мұндай деректер ашық дереккөздерден, әлеуметтік желілерден немесе дерекбазалардан оңай алынады. Қайта байланыс орнатыңыз. Өздерін банк немесе мемлекеттік ұйым өкіліміз десе де, қызметкердің аты-жөнін, лауазымын сұраңыз. Кейін сол ұйымның ресми байланыс орталығына өзіңіз хабарласыңыз. Жақыныңыздың нөмірінен түсініксіз қоңырау келсе, әңгімені тоқтатып, өзіңіз қайта хабарласыңыз.

Жеке деректеріңізді ешқашан бермеңіз. Карта нөмірі, CVC/CVV коды, жарамдылық мерзімі, код сөзі сияқты ақпаратты ешкімге айтпаңыз. Жеке басыңызға қатысты құпия ақпаратты да сақтаңыз.

Кез келген бейнеге күдікпен қараңыз, әсіресе сенсациялық мәлімдеме айтылса;Танымал тұлғаның атымен таралған видеоны тексеріңіз: ресми дереккөздерде бар ма? Ақша сұрайтын немесе деректер енгізуді ұсынатын сілтемелерден аулақ болыңыз; Фактчекинг платформаларын, OpenAI, Microsoft сияқты компаниялардың дипфейкті анықтау құралдарын пайдаланыңыз. Дипфейк – бұл жай технология емес, ақпараттық қауіпсіздікке төнген жаңа қатер. Ол адамның танымын алдайды, сеніміне селкеу түсіреді. Сондықтан цифрлық сауатты болу – заман талабы. Ақпаратты сүзгіден өткізу, көзге көрінбейтін жасанды белгілерді байқау – қауіптен қорғанудың басты жолы. Дипфейк – болашақтың шындығына айналған күрделі технология. Оның мүмкіндіктері мен қауіптері қатар дамып келеді. Сондықтан әрбір азамат ақпараттық қауіпсіздіктің қарапайым қағидаларын сақтап, өз деректерін қорғауға міндетті. Бүгінгі саналы әрекетіңіз – ертеңгі қауіпсіз өміріңіздің кепілі.

Түйін: Зерттеулерге сәйкес, интернеттегі барлық дипфейк видеолардың 96%-ы порнография саласында қолданылады (2019, Deeptrace зерттеуі). Олардың ішінде көпшілігі әйел жұлдыздардың бейнелерін пайдаланған. Deeptrace Lab ұйымының есебінше, 2019 жылы интернетте бар болғаны 7,9 мың дипфейк видео болса, 2023 жылы олардың саны 214 мыңнан асып кеткен. Бұл көрсеткіш күн сайын өсіп келеді. Ал Gartner сарапшыларының болжамы бойынша, 2026 жылға қарай интернеттегі бейнематериалдардың 80%-дан астамы дипфейк болуы мүмкін. Pew Research Center сауалнамасы нәтижесінде, АҚШ тұрғындарының 63%-ы дипфейкті демократияға төнетін нақты қауіп ретінде көреді. Бүгінгі таңда сапалы deepfake жасау үшін көп дегенде екі күн жеткілікті. Технологиялардың қолжетімді болуы бұл үдерісті жеделдетіп отыр. Олардың арасында әзіл ретінде дайындалған бейнелер де бар, бірақ көбінесе deepfake қоғамдық пікірді манипуляциялау, адамдардың беделін түсіру немесе алаяқтық жасау мақсатында қолданылып жатыр. Мұндай бейнелер саясат, бизнес, медиа саласында қауіпті құралға айналып келеді.

Deepfake технологиясын «жақсы» немесе «жаман» деп біржақты бағалау мүмкін емес. Бұл – нейтрал құрал. Қолдану мақсатына байланысты оның әсері әртүрлі болмақ. Мәселе — адамдардың бұл технологияны қандай ниетпен қолданатынында. Бұл ретте дипфейк технологиясы — екі қырлы қылыш деуге болады. Ол бір жағынан тарихты қайта тірілтіп, өнерге жаңа тыныс бере алса, екінші жағынан қоғамды шатастырып, жалған ақпарат таратуға жол ашады. Иә, технология дамуын тоқтату мүмкін емес. Ең маңыздысы — deepfake-ке қарсы әрекет ету механизмдерін әзірлеу. Бұл бағытта әлем елдері заңнамалық тұрғыда да, техникалық жағынан да шешімдер қабылдауға ұмтылып отыр. Deepfake – болашақтың технологиясы. Бірақ ол адамзаттың таңдауы арқылы қаруға да, қорғаушы құралға да айналуы мүмкін. Сондықтан бұл салада жауапкершілік, медиасауаттылық және этика басты рөл атқарады. Мұндай жағдайлардан сақтану үшін әр азамат ақпаратты тексеріп, ресми дереккөздерге ғана сенуі қажет. Ал дипфейк арқылы жасалған жарнама – ескертусіз айсбергке соғылған кеме іспетті.