Uždaryti skelbimą

Deepfake – technologija, leidžianti nuotraukose ir vaizdo įrašuose pakeisti žmonių veidus kažkieno veidais, pastaraisiais metais išsivystė į formą, kurioje skirtumas tarp tikros filmuotos medžiagos ir netikrų duomenų tampa vis sudėtingesnis. Pvz., svetainėse, kuriose yra pornografinio turinio, „deepfake“ naudojama kuriant garsius vaizdo įrašus su garsių aktorių atvaizdais. Žinoma, visa tai vyksta be puolamų asmenybių sutikimo, o dėl vis tobulėjančių technologijų naudojant mašininį mokymąsi plinta baimės dėl kitų galimų piktnaudžiavimo jomis formų. Grėsmė, kad gilus klastojimas gali visiškai diskredituoti skaitmeninius įrašus kaip įrodymus teismo bylose, yra reali ir kabo virš teisingumo sektoriaus kaip Damoklo kardas. Geros naujienos dabar ateina iš „Truepic“, kur jie sugalvojo paprastą būdą patikrinti įrašų autentiškumą.

Jo kūrėjai naująją technologiją pavadino „Foresight“ ir, užuot atlikusi papildomą vaizdo analizę ir nustatydama, ar tai „deepfake“, naudoja atskirų įrašų susiejimą su aparatine įranga, kurioje jie buvo sukurti, kad užtikrintų autentiškumą. „Foresight“ pažymi visus įrašus, kai jie sukurti, naudojant specialų šifruotų metaduomenų rinkinį. Duomenys saugomi įprastais formatais, puslapio peržiūroje Android policija įmonė pademonstravo, kad tokiu būdu apsaugotą vaizdą galima išsaugoti JPEG formatu. Taigi nereikia bijoti nesuderinamų duomenų formatų.

Tačiau technologija kenčia nuo mažų muselių eilės. Didžiausias turbūt yra tai, kad failuose dar nėra užfiksuoti juose atlikti pakeitimai. Sprendimas – įtraukti daugiau įmonių, kurios palaikytų šį saugumo metodą. Taigi technologijos sėkmę daugiausia lems didžiausių fotoaparatų ir mobiliųjų įrenginių gamintojų, vadovaujamų Samsung ir Applem. Ar bijote, kad kas nors gali piktnaudžiauti jūsų išvaizda? Pasidalykite savo nuomone su mumis diskusijoje po straipsniu.

Šios dienos skaitomiausia

.