Deepfake video’s vormen gevaar in de toekomst

Tien dingen die de wetenschap ons heeft geleerd over seks in 2020
Studentensekswerkers worden door de universiteit van Leicester positief ondersteund
woman, robot, technology

Comfreak (CC0), Pixabay

Deepfake-technologie kan pornofragmenten met iedereen maken – en in 2021 kunnen we meer door AI gemaakte video’s verwachten die bedoeld zijn om mensen in moeilijkheden te brengen, waarschuwt expert Nina Schick

Het probleem is immers of we niet zullen weten of het gaat om echte porno dan wel om nagemaakte porno.

Deepfakes – nepvideo’s die AI gebruiken om iemands gezicht in een scène in te voegen – maken nu deel uit van de mainstream.

Deepfakes gaan regelmatig viraal, met hilarische parodieën op Nicolas Cage of Donald Trump. Auteur Nina Schick zegt dat de zich snel ontwikkelende technologie in toenemende mate een “serieuze uitdaging” voor onze samenleving zal vormen.

Hoewel grappige clips het publieke gezicht zijn van de zich snel ontwikkelende deepfake-technologie, is de meest voorkomende toepassing wellicht deepfake-porno.

De Nederlandse cybersecurity-startup Deeptrace schatte eind 2019 dat 96% van alle online deepfakes pornografisch was.

Sensity, een ander in Nederland gevestigd cyberbeveiligingsbedrijf dat is opgericht om de groeiende dreiging van deepfakes te bestrijden, zegt dat het aantal deepfake nepporno-clips – waar de gezichten van onschuldige slachtoffers worden toegevoegd aan de lichamen van artiesten in expliciete video’s – elk half jaar verdubbelt. , en tegen de zomer van 2021 zouden er maar liefst 180.000 pornovideo’s online kunnen staan ​​met onschuldige mensen.

Ze zeggen dat tegen 2022 dat aantal meer zal zijn dan 720.000 – en iedereen is kwetsbaar. Het enige dat nodig is, is een foto-, video- of audio-opname van het slachtoffer.

Anno 2021 is de technologie zo gemakkelijk te verkrijgen – en eenvoudig te gebruiken – dat iedereen het slachtoffer kan worden.

Kate Middleton , Emma Watson en zelfs Ivanka Trump hebben op dezelfde manier hun afbeeldingen op deze manier zien misbruiken. Avengers-ster Scarlett Johannson zei dat er zoveel deepfake-porno met haar gezicht was dat het geen zin had om er zelfs maar tegen te vechten.

Maar hoe pijnlijk het ook mag zijn om jezelf in een hardcore pornovideo te vinden, het grootste gevaar is, zegt Nina, wanneer diepgaande neptechnologie zijn weg vindt naar politieke propaganda.

Ze schrijft in het tijdschrift Wired en vertelt het verhaal van de Belgische premier Sophie Wilmès, die het onderwerp was van een diepe vervalsing gecreëerd door de Belgian Branch of Extinction Rebellion.

De groep nam een ​​video waarin Wilmès een oprechte toespraak hield en gebruikte kunstmatige intelligentie om de clip te manipuleren zodat het leek alsof ze zei dat Covid-19 rechtstreeks verband houdt met de “uitbuiting en vernietiging door mensen van onze natuurlijke omgeving”.

Maar ook andere gevaren dreigen. Stel je voor dat je een volkomen geloofwaardige videoboodschap ontvangt van een familielid die zegt dat je hem dringend wat geld moet sturen.

Bronnen

https://www.dailystar.co.uk/news/latest-news/ai-expert-warns-180000-deepfake-23239003

© De copyrights van de hier weergegeven tekst(en)/foto's rusten bij de oorspronkelijke auteur(s). Geen overname tenzij met toestemming van de oorspronkelijke auteur(s). Vermelding op deze website is enkel om educatieve en/of wetenschappelijke redenen (onderwijsdoeleinden). Deze website is niet commercieel, bevat geen reclame en heeft geen inkomsten. Onderaan de informatie vindt u telkens zoveel mogelijk de originele bronnen voorzover ons bekend. Inden er auteursrechterlijke of privacyschendingen zijn, zijn die onvrijwillig door onbekendheid/onwetendheid en niet met opzet gebeurd. Mocht u het ongepast vinden dat uw eigen informatie/foto's/portretafbeeldingen op deze website worden vermeld of is er geen correcte bronvermelding naar uw informatie, contacteer dan gerardgielen@telenet.be met opgave van de betrokken schending van copyrights en de betrokken webpagina. De info zal dan zo snel mogelijk aangepast en/of verwijderd worden. We hopen op uw begrip bij een eventuele schending. Kennis is er om te delen, niet om te bezitten!

© This site is non commercial, only educational. All information is copyrighted from the original authors. If you find information or pictures on this site that are copyright to you, or that present you or relatives on the pictures and we have used them by accident without legal permission, please contact us immediately about the violation with link to the picture or webpage where you found it and the text or pictures will be removed asap. Contact gerardgielen@telenet.be in case. Thanks for your understanding for not respecting your privacy or copyrights by accident.Sharing knownledge is more important than possessing knowledge