Suduotas dar vienas smūgis dezinformacijos plitimui: „Intel“ pristatė įrankį, kuris identifikuoja suklastotus vaizdus

MiTech.lt

2022-11-16, 11:15

0 komentarų

Į gilias klastotes („Deepfake“), kurios paprastai susijusios su kieno nors veido ir balso uždėjimu ant kito asmens, pradėta atkreipti dėmesį prieš kelerius metus, kai suaugusiesiems skirtose svetainėse buvo uždrausti vaizdo įrašai, kuriuose šiuo metodu buvo naudojami garsių aktorių veidai prie pornožvaigždžių kūnų.

Gaukite ‎100€ kuponų rinkinį ir 30% nuolaidą pirmam apsipirkimui „Temu“ parduotuvėje
Suduotas dar vienas smūgis dezinformacijos plitimui: „Intel“ pristatė įrankį, kuris identifikuoja suklastotus vaizdus

Nuo to laiko DF vaizdo įrašai tapo vis pažangesni. Yra daugybė programėlių, leidžiančių naudotojams įterpti draugų veidus į filmus, taip pat matėme, kaip šis dirbtinio intelekto valdomas procesas naudojamas senoms nuotraukoms atgaivinti ir jaunoms aktorių versijoms vėl perkelti į ekraną.

Tačiau ši technologija turi ir nemaloniąją pusę. Be to, kad ji naudojama kuriant netikrą keršto pornografiją, ja pasinaudoja ir sukčiai, besikreipiantys dėl nuotolinio darbo. Taip pat buvo sukurta programėlė, skirta skaitmeniniu būdu nuimti moterų drabužius. Tačiau didžiausią susirūpinimą kelia tai, kaip „Deepfake“ paskatino dezinformacijos plitimą – šių metų pradžioje socialinėje žiniasklaidoje buvo išplatintas netikras Ukrainos prezidento Volodymyro Zelenskio pasidavimo vaizdo įrašas.

Organizacijos, įskaitant „Facebook“, Gynybos departamentą, „Adobe“ ir „Google“, sukūrė įrankius, skirtus giluminėms klastotėms atpažinti. Tuo tarpu „Intel“ ir „Intel Labs“ versija, taikliai pavadinta „FakeCatcher“, taiko unikalų metodą: analizuoja kraujotaką.

Užuot taikiusi metodą, pagal kurį tiriamas vaizdo įrašo failas, ieškant iškalbingų požymių, „Intel“ platforma naudoja giluminį mokymąsi, kad išanalizuotų subtilius veidų spalvos pokyčius, kuriuos sukelia venose tekantis kraujas – šis procesas vadinamas fotopletizmografija, arba PPG.

„FakeCatcher“ nagrinėja kraujo tekėjimą vaizdo taškuose – tai, ką giluminiai klastotojai dar turi ištobulinti, – ir tiria kelių kadrų signalus. Klasifikatorius nustato, ar atitinkamas vaizdo įrašas yra tikras, ar suklastotas.

„Intel“ teigia, kad kartu su akių žvilgsniu pagrįstu aptikimu šis metodas gali nustatyti, ar vaizdo įrašas yra tikras, per milisekundes ir 96 % tikslumu. Bendrovė pridūrė, kad platformoje naudojami trečiosios kartos „Xeon Scalable“ procesoriai su iki 72 vienu metu veikiančiais aptikimo srautais ir ji veikia per žiniatinklio sąsają.

Tokio didelio tikslumo realaus laiko sprendimas gali būti labai svarbus kovoje su dezinformacija internete. Kita vertus, dėl jo gilios klastotės gali tapti dar tikroviškesnės, nes kūrėjai bandys apgauti sistemą.

0 komentarų

Rašyti komentarą

Prašome gerbti kitus komentatorius. Gerų diskusijų! Apsauga nuo robotų rūpinasi reCAPTCHA ir yra taikoma „Google“ privatumo politika ir naudojimosi sąlygos.

Populiarios naujienos

Taip pat skaitykite

Hey.lt - Nemokamas lankytojų skaitliukas