Szerző: HEGYESHALMI RICHÁRD
2021.08.06.
Az Apple által használt technológia az iCloud-ra való feltöltés előtt beszkenneli a kép tartalmát, és megállapítja, hogy a felvétel CSAM (child sexual abuse material, gyermekmolesztálásos tartalom) kategóriás-e. Ha igen, a rendszer riasztja a cég operátorát, aki megvizsgálja a felvételt, és eldönti, hogy szükséges-e felvenni a kapcsolatot a hatóságokkal.
A gyerekpornó-felderítés automatizálása nagy segítség lehet a gyermekmolesztálással szembeni harcban, de az adatvédelmi szakértők szerint aggasztó lehet, hogy a technológiát bármilyen más, illegálisnak bélyegzett tartalmak felderítésére is felhasználhatják – például tiltott tartalmak vagy politikai kommentek utáni kémkedésre. A szakértők szerint az Apple ezzel egy új eszközt adhat az autoriter kormányok kezébe, amit ők arra használhatnak, hogy a saját polgáraik után kémkedjenek...
Nincsenek megjegyzések:
Megjegyzés küldése
Megjegyzés: Megjegyzéseket csak a blog tagjai írhatnak a blogba.