Жалған сайттар мен ЖИ-технологиялар: алаяқтықтан қалай сақтану қажет
Соңғы жылдары жасанды интеллект (ЖИ), әсіресе үлкен тілдік модельдер (LLM), жалған жаңалықтар өндірісін бұрын-соңды болмаған деңгейде автоматтандырды, деп хабарлайды El.kz интернет порталы.
Орасан зор деректер базасы негізінде сауатты, сенімді көрінетін мәтін жазуға қабілетті бұл жүйелер фейк контентті жаппай таратуға жол ашты. Ал жуырда таныстырылған, бірнеше секунд ішінде «Голливуд сапасындағы» бейне жасай алатын Sora секілді құралдар жалған видеоконтенттің таралуына қатысты алаңдаушылықты одан әрі күшейтті.
Оқи отырыңыз:
- DeepFake: Димаш болып алдайды, Илон Маск болып мәлімдеме жасайды
- Жасанды интеллект дәуірі: мүмкіндік пе, әлде қауіп пе?
Осы қауіптерді ескере отырып, Virginia Tech университетінің сарапшылары жасанды интеллект көмегімен фейк жаңалықтар тарататын сайттардың таралуын үш қырынан зерттеп, олармен күрес жолдарын талдады.
ЖИ фейк жаңалықтарды қалай жасауға да, анықтауға да көмектеседі?
Инженерия және машиналық оқыту саласының профессоры Валид Саадтың айтуынша, жалған ақпарат тарататын сайттар интернетпен қатар пайда болды. Яғни бұл құбылыс ЖИ дәуірінен әлдеқайда бұрын басталған. Алайда жасанды интеллекттің дамуы бұл процесті айтарлықтай жеңілдетті: енді үлкен көлемдегі деректерді талдап, шынайы ақпаратқа ұқсайтын мәтіндерді санаулы секундта құрастыруға болады.
Үлкен тілдік модельдер арқылы қаскөйлер дәл әрі сенімді көрінетін, бірақ шындыққа жанаспайтын материалдар жасай алады. Бұл фейк сайттарды бұрынғыдан да қауіпті етеді. Профессордың айтуынша, мұндай платформалар адамдар оларды оқып, бөліскен сайын өміршең бола түседі. Әсіресе әлеуметтік желілердегі белсенділік жалған контент өндірушілерге тікелей мотивация береді.
Сонымен бірге ЖИ фейктерді таратып қана қоймай, оларды анықтауға да көмектесе алады. Бірақ мұнда адам факторы шешуші рөл атқарады. Оқырмандар да, редакциялар да жалған ақпаратты әдейі немесе байқаусызда таратпауға жауапты. Ал пайдаланушылардан келіп түсетін шағымдар мен ескертулер ЖИ негізіндегі анықтау құралдарын жетілдіруге мүмкіндік береді.
Сарапшылардың пікірінше, дезинформациямен күрес АҚШ Конституциясының Бірінші түзетуін, яғни сөз бостандығын бұзбауы тиіс. Бұл мәселені реттеу аса нәзік тепе-теңдікті талап етеді.
Заңдар не істей алады, ал қай тұста дәрменсіз?
Коммуникациялық саясат жөніндегі сарапшы Кейси Майерс саяси дезинформацияны заңмен реттеу көптеген құқықтық қиындықа тап болатынын айтады. 2024 жылғы сайлаулар қарсаңында көптеген ел бұл мәселеге назар аударғанымен, ЖИ-дің қолжетімділігі фейк жасау үдерісін бұрынғыдан да оңайлатып жіберді. Бұған дипфейктер айқын мысал.
Заңнаманың басты әлсіз тұсы – фейк контент жасаушылардың көп жағдайда белгісіз болуы. Ал олар басқа елде орналасса, жауапкершілікке тарту тіпті қиындай түседі. Бұған қоса, Sora секілді технологиялар жоғары сапалы ЖИ контентті жаппай өндіруге мүмкіндік жасап отыр. Тіпті сутаңба (watermark) немесе арнайы белгі қою да мәселені шеше алмады, себебі оларды өшіруге немесе өзгертуге болады.
АҚШ-та әлеуметтік желілер Байланысты декриминализациялау туралы заңның 230-бөліміне сәйкес саяси дезинформация үшін заңды жауапкершіліктен қорғалған. Сондықтан фейкпен күрес көбіне платформалардың ішкі ережелеріне сүйенеді. Бұл өз кезегінде біржақтылық пен цензура туралы пікірталастарға себеп болады. ЖИ жасаушы компанияларды жауапқа тарту мәселесі де талқыланып жатыр, бірақ қазіргі таңда ЖИ арқылы дезинформация жасауды толық тоқтататын жүйе жоқ.
Қарапайым адам фейктен қалай қорғана алады?
Цифрлық сауаттылық бойынша маман, кітапханашы Джулия Фиррар пайдаланушылардың өз бетінше жалған ақпаратты ажырата алуына көмектесетін бірқатар кеңес ұсынады.
Ең алдымен, материалдың қай дереккөзден шыққанына назар аудару керек. Бұл беделді, кәсіби медиа ма, әлде аты белгісіз сайт па? Күмән туса, жаңа бет ашып, сайт туралы қысқаша ақпарат іздеген жөн немесе оның Википедияда бар-жоғын тексеру керек. Бұл әдіс латералды оқу деп аталады, яғни мәтіннің ішіне үңілмей, сыртқы дереккөздер арқылы растау.
Маман тағы бірнеше маңызды белгіге тоқталады:
Фейк материалдар көбіне эмоцияға әсер етуге тырысады – ашу, қорқыныш немесе шамадан тыс таңданыс тудырса, бір сәтке тоқтап ойланған жөн;
Тақырып пен суретті fact-check сервистері арқылы тексеру;
Өте жалпылама, «бәріне арналған» сайт атауы ЖИ арқылы жасалған жаңалықтың белгісі болуы мүмкін;
Кейде мәтінде ЖИ құралы қалдырған қате хабарламалар кездеседі – бұл да қауіпті сигнал;
ЖИ жасаған суреттерде бейне шамадан тыс «мінсіз» көрінуі мүмкін, сондай-ақ қол-аяқ пропорциясында оғаштықтар байқалады.
Сарапшылардың айтуынша, жасанды интеллект фейк жаңалықтарды жасауды бұрынғыдан да жеңілдетті. Бірақ сол технологияны дұрыс қолдана отырып, жалған ақпаратты анықтау мен оған қарсы тұруға да болады. Бұл жолда заң, платформа, технология және, ең бастысы, оқырманның сыни ойлауы қатар жұмыс істеуі қажет.
Бұған дейін ҚМДБ дипфейкті пайдалануға қатаң тыйым салғаны туралы жазғанбыз.

