Szerző: BODNÁR ZSOLT
2018.06.06.
Emlékszünk még azokra az időkre, amikor emberek tömegei egy egyszerű photoshopolt képre is gondolkodás nélkül képesek voltak rávágni, hogy valódi? Persze, hogy emlékszünk: hiába tűnik ősi technológiának a fotómanipuláció, az emberek még mindig nem tanulták meg helyén kezelni, hogy a technológiai fejlődés felgyorsulásával egyre kevésbé hihetnek a szemüknek.
De még ha meg is tanulták, a világnézetileg egyre megosztottabb társadalomban sokszor könnyebb bevenni a propagandát. Még idén márciusban is százezrek osztották meg heves indulattal azt a képet, amelyen a parklandi iskolai mészárlást túlélő, azóta a fegyvertartás szabályozásáért küzdő Emma Gonzalez kettétépi az amerikai alkotmányt – miközben az eredeti felvételen egy papír céltáblát szakít szét.
És ezek még csak képek voltak. A Motherboard 2017 decemberében számolt be egy új Reddit-trendről: hírességek arcát illesztették pornószínésznőkére, és hétről hétre egyre élethűbb ál-celebpornókat tettek közzé. A folyamathoz mindössze az eredeti pornójelenetre és a híresség minél több arckifejezésére (képeken, videón) volt szükség. Digitális trükkökkel hamisított videók már korábban is készültek, az új jelenség abban különbözik, hogy itt az érdemi munkát nem a felhasználók végzik, hanem a mesterséges intelligencia (AI). Az AI alapú videomanipuláció jelensége a reddites fórumok nyomán deepfake néven terjedt el, ami a deep learning (mély tanulás) és a fake (ál-, hamis) szavakból áll össze.
Bár már az amerikai hadsereg is felvette a harcot ellene, a jó célokra is használható, de tömegmanipulációra és kicsinyes bosszúkra egyaránt alkalmas deepfake megállíthatatlannak tűnik: az álhírek és a poszt-igazság (post-truth, a 2016-os év szava az Oxford Dictionariesnél) korszakának legnagyobb fegyvere lehet, amely végső soron az általunk értelmezett valóság végét jelentheti...
Nincsenek megjegyzések:
Megjegyzés küldése
Megjegyzés: Megjegyzéseket csak a blog tagjai írhatnak a blogba.