Атырау, 23 ақпан 05:43
 ашықВ Атырау -8
$ 450.47
€ 488.81
₽ 4.84

Жасанды интеллект фейк ақпараттардың тарауына қалай әсер етеді

368 просмотра

Жасанды интеллекттің дамуы жаңа мүмкіндіктер сыйлағанымен, бір жағынан қоғамды адастыратын ақпараттың тарауына әсерін тигізуде. Қазір тіпті ЖИ кесірінен дезинформацияны ажырату да қиынға соғуда. Адамның даусын салатын бағдарламалар, оның мимикасын келтіретін дипфейктер, сонымен қатар автоматтандырылған кодтың көмегімен фишингті хабарламалар медиа саласындағы сарапшыларды алаңдатуда. Stan.kz тілшісі жасанды интеллекттің көмегімен жалған ақпарат форматы қалай өзгергеніне шолу жасады.

Deepfake арқылы жалған фото-видеолар жасалады

Дипфейк –  жасанды интеллект арқылы өңделген фотосуреттер, бейнелер немесе аудиожазбалар. Бұл термин "терең" және "жалған" деген сөзінен шыққан, адамды “кеңінен” алдайды деген мағына береді. 2016 жылы пайда болған қосымша биыл бірнеше резонансты жағдайлар тудырды.

Бұған дейін зомбифейктер (бұрын пайда болған фейтердің уақыт өте келе қайта жандануы) таралып, фото не бейнероликтегі кейбір элементтерді өңдеу арқылы, мекенжайын қате жазу арқылы шатастыратын еді. Мұндай көріністердің өтірік-расын анықтау әдістері қиын емес. Өйткені желі қолданушылары оны видеоның жарияланған күніне қарап анықтайтын. Алайда қазір жасанды интеллект адамның айтпаған сөзін айтқызып, істемеген әрекетін істететін деңгейге жетті.

Жақын арада Қасым-Жомарт Тоқаевтың Илон Масктың платформасына қаржы салуға шақырған видеосы тараған еді. Бұл қазақстандықтар арасында шу туғызып, кейбір тұрғындар алданып жатты. Сонымен қатар қазақстандық аралас жекпе-жек файтері Шавкат Рахмонов, кәсіпкер Марғұлан Сейсембай, блогер Біржан Әшімовтың де бет-бейнесін, түр-сұлбасын келтіріп, жалған видеолар жасалып, соның салдарынан қаскөйлердің арбауына алданғандар жетерлік. Аталмыз азаматтар мұндай мәлімдемелерге сенбеуге шақырып, дабыл қақты. 

Қазақстандық сарапшылар бұл технологияның кең етек жайғанына алаңдаулы. IT-маман Ерлан Сарин күн өткен сайын жалған ақпараттрды әшкерелеу қиынға соғып жатқанын айтты. 

"Deepfake қазірдің өзінде өте шынайы, сапалы фото-видеолар жасайды. Deepfake-ке қарсы оны әшкерелейтін генеративті желілік технология да шығып жатыр. Онда генератор және дискриминатор деген операциялар фотоның рас-өтірігін анықтап, қай жері өңделгенін көрсетеді. Бірақ ЖИ әрдәйым жетіліп отыратындықтан, Deepfake-те оларды айналып өтетін жолдарын табады. Сол үшін 100% әшкере ету мүмкін емес", –деді сарапшы.

Десе де қазіргі таңдағы дипфейктерді анықтау қиын емес дейді. Медиасарапшы Бақтыгүл Бурбаева салқынқандылықпен видеоны зерттесе, манипуляцияны анықтауға болатынына сенімді.

“Адамның ым-ишарасын қарап, оның қаншалықты шынайы екенін көруге болады. Көбінесе ерін маңы, құлақ және маңдай қатпарларында шектен тыс әжімдер тұрады немесе өте тегіс келеді. Адамның бет-әлпетінің түсі қолдың түсінен ерекшеленуі де мүмкін. Еріннің қозғалысы табиғи емес екенін түсінуге болады. Содан соң артқы фондағы көлеңке мен дауыс ырғағына мән берген жөн”, – деді медиасарапшы. 

“Fake-news нейрожелісі пропаганда құралына айналмақ”

Аллен атындағы зерттеу институтының ғалымдары Вашингтон университетімен бірлесіп, жалған жаңалықтар шығаратын нейрондық желісін құрған. Бұл арқылы интернет қолданушылар тақырып ұсынып, өтірік ақпаратты жазғызады. Нейрожелі осыған дейін тақырыбы немесе мазмұны ұқсас ақпаратты басшылыққа алып, соның форматына келтіреді. 

Ең алғаш бұл нейрожелі көмегімен Wall Street Journal америкалық басылымы ақпарат жазған. Жасанды интеллект Америка Құрама Штаттарында пайдалы қазбаларды өндірумен айналысатын компания құрылғанын мәлімдеген.

Шетелдік мамандар бұл трендтің қауіптілігіне алаңдаулы. Айтуларынша, мұндай технология әлемдегі ақпараттық соғысты өршіте түсуі мүмкін.

"Әлемде онсыз да шу шығаратын, қоғамды адастыратын, пропагандалық ақпарат өте көп. Нейрондық желілер сол жаңалықтарды үлгі ретінде алып, одан да мықты әрі сенімді ақпарат жасап шығарады. Тіпті ажыратып, жалған екенін әшкере ету қиынға соқпақ. Бір-екі жыл ішінде мұны қаскөйлер өз үгіт-насихат науқандары үшін пайдаланатыны сөзсіз”, – деді OpenAI директоры Джек Кларк. 

Олар фейк-фермалар енді екі есе белсенді жұмыс істейді деп қорқады. 

Дегенмен шетелдік сарапшылар нейрондық желі жасап шығарған фейк ақпараттарда ғылыми және кәсіби сөздер болмайтынын атап өтті. Яғни фейк шығаратын жасанды интеллект ғылыми тілде мәтін жазуға қабілетсіз. 

“Wall Street Journal редакциясы фейкнюьс нейрожелісімен жазған Айға қатысты материалында "гравитациялық трактор", яғни ғарыш аппараты туралы ештеңе айтылмаған. Алайда бұл элемент өте маңызды және журналистердің материалында жазылады. Сонымен қатар өмірде жоқ ұйымдардың сарапшыларының сөздері келтірілген, кейбір атаулар қате жазылған. Сондай-ақ мәтінде абзацтар арасында логикалық және мағыналық жағынан түсініксіз нәрселер жиі кездеседі”, – деді Аллен институтының доценті Йечжин Чу.

ChatGPT-дің ақпараты ғылымға кері әсер етуі мүмкін

ChatGPT әлем бойынша лезде танымал болып, көпті таңғалдырғанымен, оның сұрауларға өтірік жауап беретіні және қоғамды адастырып, фейк ақпарат ұсынатыны бірнеше рет анықталды. Өз дипломдық жұмысы мен диссертация, т.б. еңбектерінде кеңінен қолданылатын желінің жалған ақпарат бергені көпті алаңдатты. Себебі бұл ғылыми жұмыстарға кесірін тигізіп, шатастыратыны айқын.

Мәселен, Австралиядағы Хепберн округінің мэрі Брайан Худті жасанды интеллект парақор деп атаған. Мэр туралы сұрауға нейрожелі оны 2000 жылдардың басында Австралияның резервтік банкіне қатысты істе пара алып, сол үшін түрмеде отырды деп жазған. Алайда оған ешқашан ондай айып тағылмаған. Керісінше, Худ сыбайлас жемқорлықты ауыздықтап, кінәлілерді ұстап берген екен. Осыдан соң мэр чат-боттың әзірлеушісі OpenAI компаниясын сотқа берген.

Стэнфорд университетінің ғалымдары ChatGPT мизинформацияны жиі тарататынын айтты.

Мизинформация дегеніміз – қоғамға іріткі салу ниеті жоқ, қателікпен тараған фейк ақпарат.

Ғалымдардың мәлімдеуінше, кодты жазу кезінде бот наурыздан шілдеге дейінгі аралықта сұрақтардың тек 10 пайызына ғана дұрыс жауап беріпті.

11 желтоқсан 2023, 11:27

Қате таптыңыз ба? Тінтуірмен белгілеп, Ctrl + Enter түймесін басыңыз.

Осы мақала тақырыбына қатысты ой-пікіріңізбен бөлісіп, бейнежазба жолдағыңыз келсе, WhatsApp +7 771 37 800 38 нөміріне және editor@azh.kz поштасына жібере аласыз.