Als met makers bedoeld wordt de gebruiker die de deepfake zonder toestemming aanmaakt en vermoedelijk in de meeste gevallen ook verspreidt dan zie ik niet zoveel verschil met laster en eerroof, belaging, … Bestraffing lijkt me in deze een van de relevante opties in bestaand kader. (Ben geen jurist voor alle duidelijkheid…)
Dat de persoon die een deepfake maakt en verspreid bestraft wordt, is een goed begin. Ik denk echter dat we een stap verder moeten gaan om te vermijden dat bepaalde tools zo makkelijk beschikbaar zijn voor het algemene publiek.
Net zoals je met zoekresulten mensen die manieren zoeken om uit het leven te stappen doorverwijst naar websites met verwijzingen naar hulplijnen, zou het misschien een optie zijn om zoekresultaten zoals “Nudify” “Deepfake Porn”, “Deepfake nudes”… te laten verwijzen naar websites en waarschuwingen over de sancties die gebonden zijn aan het verspreiden en het maken van deze dingen.
Beter informeren zeker maar de realiteit is dat we helaas met informeren niet alles kunnen voorkomen (cfr tabak, alcohol en andere drugs). Het moet veel moeilijker zijn om deze tools te gebruiken als zijnde apps for fun. Doorgaans ben ik pro tech evolution maar dit vind ik in breder maatschappelijke context geen prettig vooruitzicht. Als je ziet wat fake news zonder de deep fakes op wereldschaal al veroorzaakt heeft. Hier moet vanuit de overheid op ingegrepen worden. #thinkaboutthechildren
ik denk ook dat de bestaande wetgeving voldoende is, maar zoals steeds is de pakkans redelijk klein…
wat hier ook een probleem is is dat veel mensen niet weten/beseffen dat dit amoreel en onwettig is…
idem met het doorsturen van foto’s, weinig mensen weten dat je zonder toestemming geen foto’s van personen mag doorsturen
Ik vrees dat er niet veel tegen te beginnen valt. Misschien wat controversieel, maar als iedereen zodanig veel Deepfakes maakt dat er meer deepfakes dan echte beelden bestaan, dan wordt dat de standaard en zal er telkens vanuit gegaan worden dat alles deepfake is…
Misschien geen rechtstreeks antwoord op de deepfakes die bedoeld werden in episode 300, maar ik denk regelmatig dat een oplossing mogelijks zit in eenvoudige technologie die al jaren bestaat: digitaal ondertekenen. Ondertekenen voor echtheid. En indien niet door de auteur (bv deepfakes van presidenten of zo), dan wel door bv persagentschappen (ondertekenen zowel voor echtheid als voor fake). Op zich kan een website als YouTube daar dan op inhaken en tonen wie heeft ondertekend voor echtheid/fake.
Nu… e-mails ondertekenen lukte al niet (zelf niet door mede-geeks), dus de grote uitdaging zal bij bruikbaarheid liggen. En niet alleen bruikbaarheid, maar vereist een ernstige samenwerking over de hele industrie om dit nog maar in de startblokken te krijgen.
Om terug te gaan naar porn deepfakes (even luidop dromen): mocht het zó ingeburgerd zijn dat dingen ondertekend worden: als media niet ondertekend is door iets of iemand die je vertrouwt, dan kan je er eigenlijk van uit gaan dat het fake is (kan ook gerust flagged worden zoals een website met vervallen of self-signed TLS).
Mogelijks een moeilijk uit te werken idee, maar volgens mij zit er wel potentieel in. ¯\(ツ)/¯
Als zo’n een service zoals ItsMe of DocuSign het zou mogelijk maken om afbeeldingen/documenten te voorzien kleine watermark waarop je kan klikken om dan via deze applicatie de echtheid the controleren, dan is er al een zekerheid vanuit de auteur dat het document of de foto echt is. Sociale mediaplatvormen moeten dan enkel dergelijke gewatermarkte foto’s toelaten.
Veel partijen die moeten overeenkomen, maar er zit eventueel iets in denk ik.
Ik denk aan iets als GPG. Again, het lukte al niet met e-mails. behalve gebruiksgemak en industry buy-in moeten gebruikers ook opgeleid.
Maar de technologie is er… en is eenvoudig en kan volgens mij in theorie transparant worden toegepast (zonder dat je er als gebruiker veel voor moet doen).
Het mag alleszins geen extra stap zijn. Enkel de validatie moet iets triggeren indien fout (dan denk ik aan bv foute TLS en hoe browsers daar mee om gaan).
Is de technologie anders dan andere technologie, en, is het niet gewoon zo dat elke technologie voor “good” en voor “evil” kan gebruikt worden?
Een wapen heeft ook goeie toepassingen in bepaalde use cases, maar, kan ook slecht gebruikt worden. Het is niet anders met AI en waarvoor je het dan allemaal gebruikt. Er moet dan regelgeving komen over wat kan en niet kan, en, je kan een vorm van traceability inbouwen zoals bvb een serienummer op een wapen. Maar je kan niet vermijden dat iemand dat serienummer zal wegvijlen. Je kan niet alle wapens verbieden en alleen maar aan “de goeie” geven.
Toon 3D printing een hype was een aantal jaar geleden heeft er ook iemand een wapen geprint in plastic dat door de controle geraakte op de luchthaven en dus potentieel misbruikt kon worden… de bestanden stonden ook publiek. Je gaat daarom niet 3D printen als technologie verbieden.
Specifiek ivm deepfake. Als er één pervert één kind/mens niet misbruikt om te genereren waar hij zot van is, heb je een leven gered. Maar je kan er ook mee kapot maken.
Als je even filosofisch verder gaat had je dan ook gewoon het internet moeten verbieden als je technologie gaat verbieden die iets kwaad gaat doen.
Dus dit soort technologie is niets anders dan anders. Je hebt de “normale” wetgeving die zegt wat kan en niet kan, en, je hebt middelen om te traceren (wat bvb echt is en wat fake), en dan is het aan de autoriteiten om op te treden en in te grijpen bij fouten. Naar mijn mening geen aparte discussie nodig (zegt de man die op een discussieforum er een topic over schrijft )