Elyse Samuels / The Washington Post via Getty Images)

Жалған видео: Дипфейкті қалай анықтауға болады?

Дипфейк — жасанды интеллект (ЖИ) технологиялары арқылы жасалған, шынайы көрінетін, алайда жалған фото, видео немесе аудиожазбалар. Термин ағылшын тіліндегі "deep" (терең) және "fake" (жалған) сөздерінен құралған. Бұл технология терең машиналық оқыту алгоритмдерін қолданып, қолда бар медиаконтентті өзгертуге немесе жоқ нәрсені нөлден жасауға мүмкіндік береді.

Мысалы, дипфейк арқылы бір адамның бейнесін екіншісінің бетіне дәл сәйкестендіріп, сол адам сөйлеп тұрғандай көрінетін видео жасауға болады. Сол сияқты, дауыс та жасанды түрде өзгертіліп, адамның шынайы дауысына ұқсас етіп жазылады. Соның нәтижесінде көпшілік шынайы деп қабылдайтын, бірақ мүлде жалған ақпаратқа толы контент пайда болады.

Дипфейк технологиясы қалай жұмыс істейді?

Дипфейктердің пайда болуына терең нейрондық желілер мен алгоритмдер негіз болады. Компьютер көптеген суреттер мен бейнелерді талдап, онда адам жүзінің ерекшеліктерін “үйренеді” де, сол деректерді пайдаланып, жаңа бейнелерді генерациялайды. Көп жағдайда дипфейк жасаушыға белгілі бір адамның жүздеген суреті немесе видеожазбасы керек болады – жүйе соғұрлым көп мәліметті өңдеген сайын, соғұрлым шынайы фейк шығарады. Мұндай нейрондық желілер әдетте генеративті қарсылас желі (GAN) принципімен жұмыс істейді: бір бөлігі (генератор) жалған бейнені жасайды, екінші бөлігі (дискриминатор) оның жалған не шын екендігін аңықтап көруге тырысады. Дискриминатор алданған жағдайда – демек жасалған бейне өте шынайы шыққанын білдіреді.

Алғашқы дипфейк құралдары негізінен белгілі адамның бетін басқа біреудің денесіне орналастыруға негізделсе, қазіргі жетілдірілген әдістер бет қимылдарын, ым-ишарасын және дауысын да айнытпай салуға мүмкіндік береді. Дипфейк жасауда көп есептеу қуаты қажет болғанымен, бүгінде бұл технология қолжетімді бола бастады. Мысалы, 2023 жылы қытайлық Tencent компаниясы Deepfakes-as-a-Service (DFaaS) деп аталатын платформа ұсынды – бар болғаны 3 минуттық бейнеңіз бен 100 шақты сөз жазсаңыз, сол адамның цифрлық көшірме-аватарын жасап береді. Яғни, технология дамыған сайын дипфейк жасау жеңілдеп келеді, бұл оны кеңінен таралуына жол ашып отыр.

Дипфейк технологиясының пайдалы тұсы бар ма?

Көп жағдайда дипфейк қауіп ретінде қабылданғанмен, оның пайдалы мақсаттарға да қолданылатын тұстары бар. Мысалы, киноиндустрия мен ойын-сауық саласында дипфейк техникасы соңғы жылдары кеңінен қолданыла бастады. Кинематографияда актерларды цифрлық түрде «жасарту» немесе қайтыс болған әртістердің бейнесін қайта «тірілту» үшін дипфейкті пайдаланады. Голливуд фильмдерінде, әсіресе фантастикалық жанрда, кейіпкердің жас кезін көрсету қажет болса немесе актер күтпеген жерден қайтыс болып кетсе, оның образын толықтыру үшін осы технологияға жүгінеді. Мәселен, соңғы «Жұлдыздар шайқасы» (Star Wars) фильмдерінде өмірден өткен актерлардың кейіптері экранда қайта пайда болды – олардың жүзін жаңа көріністерге дипфейк арқылы енгізіп, дауыстарын да синтездеп берген. Сол сияқты, актерді қартайту немесе керісінше жасарту қажет болатын көріністерде де дипфейк көмектеседі.

Маркетинг және жарнамада да дипфейк қолдану мысалдары бар. Жарнама берушілер белгілі тұлғаның бейнесін немесе дауысын қолдан жасау арқылы өнімді ерекше тәсілмен жарнамалай алады. Кейбір ритейлерлер тұтынушыларға киім-кешекті виртуалды түрде киіп көру қызметін ұсына бастады – ол да дипфейкке ұқсас технологиялардың жемісі. Білім беру, өнер және мәдениет салаларында да мүмкіндіктер зор: тарихи тұлғалардың жүзіне жан бітіріп, оларды «өз аузымен» тарихты баяндату, музей экспонаттарын сөйлету сияқты жобалар жасалды. Тіпті ескі фотоларға анимация жасап, қозғалатын бейнеге айналдыруға болады – бұны да дипфейк арқылы іске асыруға болады.

Осылайша, шығармашылық индустриясында дипфейк технологиясы уақыт пен ресурсты үнемдеуге, әрі жаңа креативті шешімдерге жол ашады. Продюсерлер, режиссерлер, ойын жасаушылар мен жарнама мамандары бұл құралды белсенді пайдаланып келеді. Мысалы, кинода қауіпті трюктарды орындау үшін актердің бет-бейнесін каскадерге жапсыру, компьютерлік ойындарда шынайы актерлардың мимикасын кейіпкерлерге беру сияқты дүниелер бұрын ерекше эффект саналса, қазір қалыпты дүниеге айналды. Дегенмен, дипфейктің пайдалы қыры осымен шектелмейді – болашақта ол қашықтық коммуникация, телемедицина, тілдік аударма (бір тілде сөйлеген адамның ерін қимылын басқа тілдегі сөзге сәйкес өзгерту) сияқты салаларда да қолданылуы әбден мүмкін.

Дипфейк арқылы туындайтын қауіптер

Дипфейк технологиясының кері әсері мен қауіпті тұстары қоғамда үлкен алаңдаушылық туғызғаны анық. Ең әуелі, дипфейк құралын қылмыстық және арам пиғылды мақсатта пайдалану жағдайлары көбейіп келеді. Бұл технология шындыққа жанаспайтын көріністерді шынайы етіп көрсете алғандықтан, оны ақпараттық манипуляция мен алаяқтықтың қуатты қаруына айналдырып отыр. Төменде дипфейктің ең кең тараған және зиянды түрлеріне тоқталайық:

  • Порнографиялық және беделге нұқсан келтіретін контент. Интернетте дипфейк алғаш кең тарала бастаған салалардың бірі – порноиндустрия. Өкінішке қарай, танымал адамдардың жүзін эротикалық видеоларға алмастырып жасаған заңсыз контент көбейді. Кей зерттеулерге сәйкес, интернеттегі барлық дипфейк видеолардың едәуір бөлігі порнографиялық сипатта болып, оның құрбандарының басым көпшілігі – әйелдер. Мұндай deepfake-порно жеке адамдардың абыройына үлкен нұқсан келтіреді, адамның келісімінсіз оның бейнесін жиіркенішті сипатта қолдану – айқын құқық бұзу. Жеке кек алу немесе зорлық-зомбылық мақсатында да адамдардың бет-бейнесін жалған интим видеоларға жабыстырып тарату жағдайлары кездесуде. Мысалы, 2019 жылы әлемге танымал актрисалардың жүзін пайдаланып жасалған жүздеген фейк-видеолар әшкере болды, бұл оқиғалар көпшіліктің наразылығын туғызды (бұл – дипфейк техникасының ең алғашқы қауіпті қолданылу толқындарының бірі еді). Беделді түсіру және бопсалау мақсатында жасалатын дипфейктер де қауіпті – біреудің атынан масқаралайтын жалған мәлімдеме жасалған видео немесе дауыс жазба таратып, артынан “соның түпнұсқасын жоямын” деп ақша талап ету сияқты шантаж әрекеттері де теориялық тұрғыда мүмкін.
  • Алаяқтық және қаржылық қылмыс. Дипфейк алаяқтар үшін кибершабуыл жасап, адамдардың жеке мәліметтерін немесе қаражатын қолға түсіруде таптырмас құралға айналып келеді. Соңғы жылдары шетелде бірнеше ірі алаяқтық оқиғалары орын алды. Қаржы алаяқтығының бір үлгісі – телефон арқылы маңызды тұлғаны айнытпай салу. Мысалы, 2019 жылы Ұлыбританияда алаяқтар ірі компания басшысының дауысын нейрондық желі көмегімен дәл салып, сол басшының акцентіне дейін қайталап, қаржы директорына қоңырау шалған. Нәтижесінде қаржы директор “бастығым айтқан екен” деп, шұғыл түрде есепшотқа 220 мың еуро аударып жіберген. Кейін бұл дауыстың қолдан жасалған жалған дыбыс – дипфейк екенін тергеу анықтағанымен, ақша ізім-қайым кетті. Дәл осындай “CEO-фрод” деп аталатын басшының атын жамылып ақша талап ету схемасы әлемде бірнеше рет тіркелді.

Алаяқтар сондай-ақ қарапайым халықты да алдап соғуда. “Туысыңа көмектес” түріндегі алаяқтық: сізге жақыныңыздың бейнесі мен даусы айнытпай салынған видео қоңырау келуі мүмкін, онда ол адам шұғыл жағдаймен ақша сұрайды. Шындығында, бұл – бөтен адамның сіздің жақыныңыздың түр-келбеті мен үнін қолдан жасап жіберген дипфейкі. Дүниежүзінде осы әдіске сеніп, туысына көмектеспек болып, алаяққа ірі сомада ақша жіберіп қойған жәбірленушілер баршылық. Финляндияда 2020 жылы дәл осындай әдіспен зейнеткер алданды – ол “баласының” даусына сеніп, сұралған соманы аударып жібергені сол еді, артынша шын баласы телефон соғып, өзін ешнәрсе сұрамағанын айтыпты.

Банк есепшоттарын бұзу: дипфейк арқылы адамның бет-әлпетін және дауысын идентификатор ретінде пайдаланатын қауіпсіздік жүйелерін алдау да мүмкін болып отыр. Мысалы, Қытайда 2021 жылы алаяқтар салық қызметінің бет-анықтау жүйесін айналып өту үшін әртүрлі адамдардың суреттерін сатып алып, олардың жүзін дипфейк технологиясымен “тірілтіп”, жалған куәліктер жасаған. Осылайша 76 миллион доллар заңсыз пайда тапқандары анықталды. Өлген адамның “қайта тірілуі” де қылмыскерлер үшін қосымша мүмкіндік: алаяқтар марқұм болған адамның ескі бейнежазбасын пайдаланып, оның бейнесін сөйлетіп, артында қалған туыстарын немесе әріптестерін алдап соғуы ғажап емес. Қазақстанда, бақытымызға орай, дәл дипфейк қолданылған алаяқтық фактілері ресми тіркелмеген, алайда қаржы мониторингі органдары халықты осындай жаңа қулықтардан сақтандырып, сергек болуға үнемі шақырып келеді.

  • Жалған ақпарат және саяси манипуляция. Дипфейк технологиясы ақпараттық кеңістіктегі дезинформация мәселесін күрделендіре түсуде. Бұрын тек мәтін немесе фотомонтаж арқылы жалған хабар таратылса, енді көзбен көріп, құлақпен еститін видео мен аудио түріндегі фейктер пайда болды. Бұл әсіресе саясат пен қоғамға қатысты қауіпті жалған ақпарат таратуда қолданылуы мүмкін. Сарапшылар дипфейкті сайлау науқандарында қарсылас үміткердің беделін түсіру үшін немесе халық арасына іріткі салу үшін пайдалану қаупін айтады. Мысалы, әлемде алғаш рет 2022 жылы Украинаның президенті В. Зеленскийдің атынан жасалған дипфейк видео тарады – ол жалған видеода президент әскеріне қаруды тастауды “бұйырған”. Бұл фейк жылдам әшкере етілгенімен, алдағы уақытта мұндай саяси дипфейктер көбейіп, тіпті психологиялық қару ретінде қолданылуы мүмкін деген қауіп бар.

Жуырда орын алған тағы бір мысал – 2025 жылдың мамыр айы қарсаңында әлеуметтік желілерде Қазақстанның кейбір шенеуніктері мен журналистері атынан жалған видеожолдаулар тарады. Ол роликтерде олар Жеңіс күніне орай “Мәңгілік полк” шеруі өтетінін хабарлап, жұртты қатысуға шақырады-мыс. Шын мәнінде, ол видеолар – алдын ала жазылған сұхбаттар негізінде жасалған дипфейктер еді. Factcheck.kz сарапшылары олардың жалған екенін анық көрсетіп берді: видеода сөйлеп тұрған адамның ерін қимылдары мен дауысы өзгертілген, бірақ сырт кейпі сол кездегі түпнұсқа бейнемен бірдей. Осындай әдіспен жасалған фейк-видеолар халықты шатастырып, әлеуметтік толқу туғызуы мүмкін екенін мамандар ескертеді.

  • Қоғамдық тәртіп пен сенімге қауіп. Дипфейктің ұзақмерзімді зияны – жалпы ақпаратқа деген қоғам сенімінің шайқалуы. Егер көзбен көрген бейнеге сенім болмайтын жағдай туса, шындық пен өтірікті ажырату күрделене түседі. Мамандар мұны «шындықтың құнсыздануы» деп атап жүр. Яғни, болашақта шынайы бір оқиғаның видеосы жарияланса да, оны жақтырмаған тарап “бұл дипфейк” деп жалтара салуы мүмкін. Заңсыз әрекеті әшкереленген тұлғалар нақты видеожазбаны мойындамай, «фейк жасалыпты» деп ақталуы жиілеуі мүмкін. Мұның салдары – қоғамда шатасу, ақпараттық анархия және кез келген фактіге күмәнмен қарау үрдісі. Сондықтан дипфейк тек жеке адамдарға емес, тұтас қоғамның ақпараттық қауіпсіздігіне қатер төндіретін құбылыс ретінде бағаланады. Оны бетімен жіберсе, бір жалған видео лезде миллиондарға таралып, оларды жаңылыстырып, қоғамдық пікірді бұрмалауы әбден мүмкін

Жоғарыдағы жайттар дипфейк технологиясының зиянды тұстарын көрсетеді. Әрине, технологияның өзі бейтарап құрал, оны қалай қолдану – адамның ниетіне байланысты. Дегенмен, «дипфейк – тек ойын-сауық емес, адамдардың қалтасын қағып, беделін түсіретін қауіп» екенін ұмытпаған жөн. Қазіргі таңда дипфейкті көбіне алаяқтар мен ақпаратты бұрмалаушылар пайдаланып жатқаны байқалады. Сол себепті әрбір азамат мұндай технология барын біліп, медиасауаттылығын арттырғаны абзал.

Дипфейкті қалай анықтауға болады?

Дипфейктер күн санап шынайы көрінгенімен, оларды анықтау тәсілдері де қатар дамып келеді. Жеке қарапайым қолданушы деңгейінде күмәнді видеоны бірнеше белгілері арқылы әшкерелеуге болады. Сарапшылар мен қауіпсіздік мамандары мынадай кеңестер береді:

  • Көз бен мимикаға назар аударыңыз. Дипфейк-видеоларда кейіпкердің көзінің қозғалысы кейде табиғи емес болатыны байқалған. Мысалы, адам сирек жыпылықтауы немесе жанарының бағыттары үйлеспеуі мүмкін. Бет құбылысында да болмашы жасандылық сезіледі. Әдетте алгоритмдер көзді шынайы көшіріп салуда қиналады, сондықтан жанардағы тіршілік белгісін байқау – бір әдіс.
  • Дыбысты мұқият тыңдаңыз. Адамның дауысы дәл келтірілгендей көрінгенімен, көбіне еріннің қозғалысы дыбысқа толық сәйкес келмейді. Сөз бен артикуляцияның арасындағы ұсақ алшақтықтарды байқауға тырысыңыз. Мысалы, видеоның аудиожолында сөйлеп тұрған адам “о” дыбысын айтып жатса, оның ерні “и” дыбысына тән формада болуы мүмкін – мұндай диссонанс дипфейкті қолға түсіруі ықтимал.
  • Ақпарат көзін тексеріңіз. Егер видеоның растығына күмәндансаңыз, дереккөзін іздеңіз. Бейнежазба рас人物 болса, оны беделді БАҚ та жариялаған болуы керек. Түпнұсқа контексті табу үшін кері бейне іздеу (reverse image search) әдісін қолдануға болады – яғни видеодан скриншот алып, оны іздеу жүйесіне салу арқылы сол кадрдың алғаш қайдан шыққанын білу. Сондай-ақ видеода көрінген адамнан тікелей сұрауға немесе оның ресми парақшаларынан растау іздеуге болады. Шын тұлғалар әдетте өз атына қатысты жалған ақпаратты көрсе, дереу теріске шығарады.
  • Арнайы тексеру құралдарын қолданыңыз. Қазіргі кезде интернетте дипфейкті анықтайтын бірқатар бағдарламалық шешімдер бар. Мысалы, Microsoft компаниясы 2020 жылы видеоның шынайылығын баллдық көрсеткішпен бағалайтын клиенттік қосымша ұсынған. Мұндай жүйелер видео пикселдеріндегі жасанды іздерді, lighting мен көлеңке сәйкессіздіктерін, тіпті адам жүзіндегі жылулық излучение картасын тексере отырып, фейкті табады. Сондай-ақ кейбір зерттеушілер адамның көз жыпылықтау жиілігін өлшеу арқылы да дипфейкті тануға болатынын көрсетті – әдетте фейк-видеодағы кейіпкер тым сирек немесе ненормально жиі жыпылықтайды. Күмәнді видеоны жүктеп алып, арнайыDetector бағдарламалармен тексеру де нәтижесін беруі мүмкін. Әрине, бұл құралдардың да қателесуі мүмкін, дегенмен қолда бар мүмкіндікті пайдалану қажет.

Жоғарыдағы әдістерді қолдана отырып, көпшілік тараған дипфейктердің басым бөлігін ажыратуға болады. Дегенмен, технология жетілген сайын фейктерді анықтау да күрделеніп барады. Сол себепті сақтық – ең басты қорғаныс. Егер интернетте назар аудартатын бейне көрсеңіз, оны бірден бөліспес бұрын шын-өтірігін тексеріп алу бүгінгі медиазамандағы маңызды дағдыға айналды.

Қазақстандағы дипфейк мәселесі

Құқықтық реттеу және алдын алу шаралары

Дипфейк технологиясының қауіпті тұстары айқын болғандықтан, әлем елдері оған қарсы құқықтық шаралар қарастыра бастады. Қазақстанда да соңғы уақытта дипфейкке қатысты заңнамалық реакция байқалуда. 2023-2024 жылдары еліміздің Парламентінде «Жасанды интеллект туралы» заң жобасы талқыланып, онда дипфейк мәселесі көтерілді. 2025 жылдың наурызында Мәжіліс депутаты Екатерина Смышляева дипфейк жасаған адамдарды қылмыстық жауапкершілікке тарту мүмкіндігін қарастырып жатқанын мәлімдеді. Депутаттың айтуынша, дипфейк жалған ақпарат тарату құралы болғандықтан, алдағы уақытта оны жасағаны үшін жазаны заңнамаға енгізу қажет болуы мүмкін. Халықаралық тәжірибеге сүйене отырып, жұмыс тобы бұл ұсынысты жан-жақты талқылайтынын да атап өтті. Яғни, жақын болашақта Қазақстанның Қылмыстық кодексіне дипфейк өндірісі мен таратуға қатысты арнайы бап қосылуы ғажап емес.

Қазіргі қолданыстағы заңнамада тікелей “дипфейк” ұғымы болмаса да, жалған ақпарат таратуға қатысты жалпы нормалар бар екенін айта кету керек. Мысалы, Қылмыстық кодекстің 274-бабы бойынша көпшілікке жалған ақпарат таратқаны үшін жауапкершілік қарастырылған. Егер дипфейк арқылы қоғамдық тәртіпке қауіп төндіретін, адамға зиян келтіретін жалған мәлімет таратылса, оны жасаушыларды осы баппен жазалауға болады. Сонымен бірге, жеке өмірге қол сұғу, адамның абыройын айқын түрде бүлдіру секілді әрекеттер де заңмен қудаланады – дипфейк-порнография немесе біреуді қаралайтын фейк-видео таратушылар осы тармақтар бойынша жауапқа тартылуы мүмкін. Дегенмен, құқық қорғау органдары мен сарапшылар арнайы дипфейкке тыйым салатын немесе оның жасалуын реттейтін нақты құқықтық нормалар қажет деп есептейді, себебі технологияның sui generis (өзіндік) ерекшеліктері бар.

Мемлекеттік деңгейде алдын алу бағытында халықтың цифрлық сауатын арттыру шараларына көңіл бөлінуде. Қаржы нарығын реттеу және дамыту агенттігі (ҚНРДА) 2022 жылы Fingramota.kz платформасы арқылы халыққа дипфейк туралы ақпараттық материалдар жариялап, алаяқтардың жаңа әдістері жөнінде ескертті. Онда дипфейктің не екені, қалай жасалатыны, алаяқтардың оны қалай пайдалануы мүмкін екендігі жан-жақты түсіндірілді. Осындай ресми ақпараттық кампаниялар азаматтарды сақтандыруға және фейктерге алданбауға үйретуге бағытталған. Мектептер мен жоғарғы оқу орындарында медиасауаттылық сабақтарына дипфейк тақырыбы енгізілсе, құқық қорғау органдары қызметкерлеріне де цифрлық фейктерді тану бойынша тренингтер өткізу жоспарлануда.

Нақты оқиғалар және жергілікті тәжірибе

Соңғы жылдары Қазақстанда дипфейкке байланысты бірқатар нақты оқиғалар тіркелді, бұл мәселеге қоғам назарын аударды. 2024 жылдың наурызында “Қазатомпром” инвестициялық платформасы деген ойдан шығарылған жобаны жарнамалау үшін белгілі қоғам қайраткері Мұхтар Жәкішевтің дипфейкі пайдаланылғаны әшкере болды. Алаяқтар Жәкішевтің бұрынғы сұхбатынан фрагмент алып, оның бет қимылдарын өзгертіп, азаматтарды күмәнді инвестицияға шақырған видеоролик дайындаған. Factcheck.kz ресурсы бұл видеоны талдап, онда Жәкішевтің дауысын басқа сөздерге алмастырған белгілер барына және жалпы видеоны монтаж арқылы құрастырғанына дәлелдер келтірді. Бұл – Қазақстанда тіркелген алғашқы ірі дипфейк-алаяқтық оқиғаларының бірі еді. Абырой болғанда, дер кезінде дабыл қағылып, көп адам алданып үлгерген жоқ.

Ал 2025 жылғы 7 мамыр – Отан қорғаушылар күні қарсаңында және Жеңіс күнінің алдында бірнеше саяси астары бар дипфейк-видеолар әлеуметтік желілерде таралды. Онда танымал журналистер мен мемлекеттік қызметкерлер бейнеленген видеожолдаулар болды. Бұл роликтерде олар 9 мамырда “Мәңгілік полк” атты шеру өтетінін хабарлап, өздері қатысатынын айтады деп көрсетілген. Шын мәнінде, аталған датада мұндай шара жоспарланбаған, ал видеолар монтаждалған болып шықты. Кейіннен журналистер мен ресми тұлғалардың өздері көпшілікті хабардар етіп, ол ақпараттың жалған екенін мәлімдеді. Мәселен, Instagram желісінде журналист Динара Сәтжан өзінің атынан тараған видеоға байланысты жазба қалдырып: “Бұл жалған ақпарат! Сенбеңіздер!” деп ескертті. Осылайша, жауапты азаматтар жылдам реакция жасап, фейкті таратпауды сұрады.

Журналистің атынан тараған жалған видео әлеуметтік желіде «FAKE» деген таңбамен белгіленіп, оның өзі оқырмандарына мұндай ақпаратқа сенбеу керектігін ескертуде.

Factcheck.kz сарапшылары аталған дипфейктерді жеке талдап, олардың қалай жасалғанын түсіндіріп берді. Мысалы, журналист Әсем Жәпішеваға жасалған видеода оның 2022 жылы YouTube арнасына берген сұхбатындағы қозғалыс пен бейне пайдаланылып, сөздері ауыстырылған. Экранда оның бет-әлпеті және дене қимылдары өзі берген сұхбаттағыдай көрінеді, алайда дыбысы басқа мәтінге ауыстырылғандықтан, дауыс пен ерін қимылы арасында сәйкессіздік бар екені байқалған. Сол сияқты, басқа видеоларда да тұлғалардың бұрынғы бейнеүндеулерінен алынған кадрларына жаңа мәтін қосылып, жалған контекст жасалған. Сарапшылар мұндай жағдайда ең тиімді әдіс – түпнұсқа видеоны тауып, салыстыру екенін көрсетті: көп жағдайда дипфейк бұрыннан бар бейнеге негізделгендіктен, сол бейненің шынайы мазмұнын көріп шығу фейкті әшкерелейді.

Жоғарыдағы жағдайлар Қазақстанның ақпараттық кеңістігінде дипфейк құбылысы пайда бола бастағанын көрсетеді. Егер әлемдік деңгейде атақты саясаткерлер мен актерлердің дипфейктері жиі айтылса, енді оның жаңғырығы біздің елге де жетіп отыр. Бақытымызға орай, отандық медиада жедел фактчекинг механизмдері жұмыс істеп тұр: күмәнді видео тараса, тәуелсіз тексеруші ресурстар оның жай-жапсарын анықтап, халыққа түсіндіреді. Дегенмен, бұл бірлі-жарым оқиғалар қоғамға үлкен сабақ болуы тиіс – келешекте бұдан да шебер жасалған фейктер пайда болса, оларды жұрт қалай ажыратпақ? Сондықтан нақты тәжірибе көрсеткендей, әр азамат көрген-білген ақпаратын сүзгіден өткізіп, ресми не беделді көздерден растауға дағдылануы қажет.

Сарапшылардың пікірлері және қоғамның реакциясы

Дипфейк тақырыбына қатысты сарапшылар пікірі екі бағытта тоғысады: біріншісі – техникалық мамандардың алаңдаушылығы, екіншісі – әлеуметтік-гуманитарлық сала мамандарының ұсыныстары. IT сарапшыларының айтуынша, жасанды интеллектінің қарқынды дамуы жақын болашақта фейктерді бүгінгіден де «қолдан бөлуге қиын» деңгейге жеткізуі мүмкін. Яғни, көзге көрінетін ұсақ кемшіліктер (мысалы, көздің жанары немесе ым-ишарадағы үйлесімсіздік) азайып, дипфейктерді қарапайым көзбен ажырату өте ауыр болмақ. “Алдын-алу мен ағарту – басты жол”, дейді мамандар. Қазіргі кезде фейкпен күресте техникалық құралдардан гөрі, адамдардың өздерін жаттықтыруы маңызды. Қазақстандық цифрлық қауіпсіздік жөніндегі мамандар азаматтарға жеке деректерін қорғауды ұсынады: әлеуметтік желіде фотоларыңызды барынша шектеулі ортада бөлісу, бейнежазбаларды ашық платформаға тым көп жүктемеу – дипфейк жасауға қажетті материалдың қолжетімділігін азайтады деп санайды. Сондай-ақ банк шоттары мен құпия құжаттарға қосымша аутентификация (екі факторлы тексеру, биометриялық идентификаторыңызды жиі жаңарту) енгізу де артық етпейді. Өйткені алаяқтар сіздің бет-бейнеңізді пайдаланып банк қызметіне кірмек болса, қосымша SMS-код немесе басқа верификация арқылы тоқтатуға болады.

Құқықтанушы және этика жөніндегі сарапшылар дипфейк жасау мен таратудың құқықтық және моральдық жауапкершілігін күшейтуге шақырады. Олар заңнамалық шаралармен қатар, ірі әлеуметтік желілер мен мессенджерлердің де жауапкершілігін сөз етеді. Мысалы, Facebook, YouTube сияқты платформалар 2020 жылдан бастап дипфейкке қарсы саясат енгізіп, әдейі жаңылыстыру мақсатында жасалған фейк-видеоларды анықтап, өшіруге уәде берген. Осындай бастамаларды Қазақстанда да қолдап, қажет болса тиісті заң нормаларын бекіту ұсынылуда – яғни, онлайн платформалар жалған ақпараттың кең таралуына жол бермеуі тиіс. Бұл ретте, отандық БАҚ пен фактчекерлердің рөлі өте маңызды: қоғамда ақпаратты сауатты сүзгіден өткізетін экожүйе қалыптастыру қажет.

Қоғамның реакциясына келсек, дипфейк феномені әзірге елімізде жаңа түсінік болғанымен, соңғы оқиғалардан кейін жұртшылықтың едәуір құлағы түрік екенін байқадық. Әлеуметтік желілерде дипфейк туралы пікірталастар жиілеп, қарапайым қолданушылар да көрген видеоларына күмәнмен қарауды үйрене бастағаны сезіледі. Мәселен, жоғарыда айтылған “Мәңгілік полк” туралы жалған видео тараған кезде, көптеген пайдаланушылар бірден оның күмәнді екенін жазып, “дауысы бір түрлі, голосын қайдан алған?” деген сияқты комментарийлер қалдырған. Танымал тұлғалардың өзі дереу реакция білдіріп, “достар, бұның фейк екенін біліңіздер” деп хабарлама таратты. Бұл – қуантарлық жайт, яғни қоғам қауіпті танып, оған қарсы иммунитет қалыптастыруға талпынып жатыр.

Дегенмен, дипфейк әлі кең таралмағандықтан, көпшілік арасында оған қатысты сауаттылық деңгейі толық қалыптасты деп айту ерте. Кейбір азаматтар мұндай нәрсе мүмкін екенін білмегендіктен, фейкке сеніп қалуы ғажап емес. Сондықтан қоғамның реакциясы біртіндеп білім деңгейіне тәуелді болмақ. Алдағы уақытта дипфейк тақырыбы ақпараттық кеңістікте жиі көтеріліп, мектеп бағдарламалары мен тренинг-семинарларда айтылуы керек. Тек сонда ғана қоғам тұтасымен бұл қауіпке дайын болады.

Қорытынды: технология дәуіріндегі сақтық

Дипфейк – XXI ғасырдың ең таңғаларлық әрі қайшылықты технологиялық құбылыстарының бірі. Оның бір жағынан шығармашылық пен инновация көкжиегін кеңейтетін зор әлеуеті бар; екінші жағынан – жалғандық пен қаскүнемдікке жол ашатын қауіпті құрал. Бүгінде дипфейк арқылы күлкілі фильтр-видеолар да жасалып жатыр, сонымен қатар мемлекеттік деңгейде дау туғызатын саяси қитұрқылықтар да орын алуда. Мұндай жағдайда әр мемлекет, әр қоғам өз бетінше бейімделіп, тиісті жауап беруі қажет.

Қазақстанда дипфейк мәселесі енді ғана күн тәртібіне шығып келеді. Заң шығарушылар оның алдын алу үшін қадамдар жасап, қажет болса, қылмыстық жауапкершілікке тартуға дейін бару қарастырылып жатыр. Ақпараттық қауіпсіздік ұйымдары халық арасында түсіндіру жұмыстарын жүргізіп, жаңа алаяқтық схемаларынан сақтануды үйретіп жатыр. Отандық фактчек ресурстары әрбір даулы фейкті әшкерелеп, қоғамға шынайы ақпарат жеткізуге тырысып жатыр. Бұл бастамалар жалғаса берсе, дипфейк қаупінің алдын алуға мүмкіндік бар.

Ең бастысы – әрбір адамның медиамәдениеті. Техникалық тұрғыда қаншалықты қорғаныс шараларын енгізсек те, ақпаратты тұтынатын түпкілікті тұлға – қарапайым адамдар. Сондықтан, кез келген контентті сын көзбен бағалау, рас-өтірігін басқа дереккөздер арқылы тексеру дағдысы ауадай қажет. Ғалымдар болашақта “шындық пен жалғанның арасы бұлыңғырланатын заман” туралы көп айтады. Бірақ ондай күрделі кезеңге тап болмау өз қолымызда: егер бүгіннен бастап цифрлық сауаттылықты жолға қойсақ, қоғамның әр мүшесі ақпарат айдынында сыни ойлай алса, қандай технология шықса да, біздің саналы таңдауымыз жеңіп шығады. Ақпараттық толқынның астында қалмау үшін сақтықты серік етіп, шынайылықты бағалай білейік – дипфейк дәуірінде өмір сүрудің басты ережесі осы болмақ.