
Deepfake: პერსონალურ მონაცემთა დაცვა და მათი იდენტიფიცირების მეთოდები
ციფრული მოწყობილობების პრაქტიკულად განუსაზღვრელი, მზარდი შესაძლებლობები საზოგადოებისთვის სიახლეს არ წარმოადგენს. ბოლო პერიოდში თანამედროვე ტექნოლოგების ერთ-ერთი ყველაზე აქტუალური გამოვლინებაა „Deepfake“-ი[1] - ხელოვნურად წარმოქმნილი, მანიპულაციური აუდიო, ვიდეო, ფოტოსურათი ან ციფრული შინაარსის (ე.წ. „კონტენტის“) სხვა პროდუქტი, რომლითაც შესაძლებელია მოვლენებისა და გამოსახულებების გაყალბება. დიდი ხნის განმავლობაში გამოსახულების სინთეზირებისთვის გრაფიკული რედაქტირების ხელსაწყოები (მაგალითად, როგორიცაა ყველასთვის ცნობილი “Adobe Photoshop”) გამოიყენებოდა, დღესდღეობით კი აღნიშნულმა, ტექნოლოგიებმა ხელოვნური ინტელექტის (AI) დახმარებით, მნიშვნელოვანი ცვლილებები განიცადეს, რომელთა საშუალებითაც ვიზუალური გამოსახულების თუ ხმოვანი ჩანაწერის რეალურისგან განსხვავება ხშირ შემთხვევაში შეუძლებელიც კი არის.
Deepfake-ის შექმნის სხვადასხვა მეთოდებს შორის გამორჩეულია გენერაციულ-წინააღმდეგობრივი ქსელები (GAN), რომელიც რეალურისგან რთულად გასარჩევ გამოსახულებას ქმნის. GAN-ები არის მანქანური სწავლების (ML) მოდელები, რომელშიც ორი ნეირონული ქსელი – „დისკრიმინატორი“ და „გენერატორი“ - უპირისპირდება ერთმანეთს ზუსტი პროგნოზების, ხოლო Deepfake-ის შემთხვევაში რეალობასთან მიახლოებული შედეგების მისაღებად.
აღნიშნული ციფრული გამოსახულებები მნიშვნელოვანი ტექნოლოგიური განვითარების მაჩვენებელია, თუმცა უმეტეს შემთხვევებში, შესაძლოა უარყოფითი შედეგების მისაღწევადაც იქნეს გამოყენებული. ევროპარლამენტი თავის ერთ-ერთ ანგარიშში აღნიშნავს რომ Deepfake ტექნოლოგიები ციფრული დეზინფორმაციის მზარდი ნაწილია. მათ შესაძლოა ჰქონდეს შეცდომაში შეყვანისა და ზიანის მოტანის სერიოზული პოტენციალი როგორც ინდივიდების, ორგანიზაციების, ასევე მთლიანად სოციუმის დონეზე.[2]
„დეზინფორმაცია“ გარკვეული მნიშვნელობის მქონე ფაქტებთან დაკავშირებით არასწორი, ცრუ ინფორმაციის გავრცელებას გულისხმობს[3] და მიმართულია პირთა მოსაზრებებზე გავლენისაკენ[4]. ლოგიკურია რომ Deepfake-ის მეშვეობით, საზოგადოების ფართო წრის აზრის ფორმირებას, მიმდინარე პროცესებში თავისი „წვლილის შეტანით“, მწვავე პოლიტიკურ და სოციალურ შედეგებს გამოიწვევს.
გარდა ამისა საგულისხმოა, რომ ფოტოსა და ვიდეოში ადამიანების სახის გაყალბება (სხვა პიროვნების გარეგნობით) ზრდის არაავტორიზებული წვდომის რისკებს. “Deepfake”-ი პირთა შეცდომაში შეყვანის, ფინანსური თაღლითობის, ღირსებისა და რეპუტაციისთვის ზიანის მიყენებისთვისაც შეიძლება იყოს შექმნილი. მაგალითისთვის, ხმის კლონირების ტექნოლოგიით ერთ-ერთმა პირმა თავი ბრიტანული კომპანიის აღმასრულებელ დირექტორად გაასაღა და შესაბამის პასუხისმგებელ პირს 243 000 ფუნტ სტერლინგის გადარიცხვა დაავალა მის მიერ მითითებულ ანგარიშზე. [5]
პრაქტიკაში აღნიშნული „კონტენტით“ მანიპულაცია შესაძლოა დადებით კონტექსტშიც იყოს გამოყენებული, როგორიცაა შემოქმედებითი მიზნები, სოციალური კამპანიები, შემთხვევის ან ისტორიული მოვლენის რეკონსტრუქცია და სხვა. მაგალითად 2019 წელს, გაერთიანებული სამეფოს ერთ-ერთმა არასამთავრობო ორგანიზაციამ მალარიასთან ბრძოლის კამპანიისთვის გამოიყენა ცნობილი ფეხბურთელის დევიდ ბექჰემის გამოსახულება, რომელიც 9 ენაზე მიმართავდა სხვადასხვა სამიზნე აუდიტორიას, ასეთივე ტექნოლოგიების გამოყენებით 2019 წელს „დალის მუზეუმმა“ სიურრეალისტი მხატვრის სალვადორ დალის გამოსახულების შექმნა.
ხელოვნური ინტელექტის თანამედროვე მოდელები უფრო მეტად ხელმისაწვდომი ხდება ფართო აუდიტორიისთვის შესაბამისად შესაძლებელია, რომ აღნიშნული ტექნოლოგიებით სინთეზირებული აუდიო ჩანაწერები, გამოსახულებები გამოყენებულ იქნას ძალადობრივი, ექსტრემისტული მიზნებისთვის და ემსახურებოდეს მსგავსი შინაარსის მქონე ინფორმაციის, გზავნილების გავრცელებას.[6] შესაბამისად, უარყოფითი გავლენების შემცირებისთვის უმნიშვნელოვანესია საზოგადოებაში ხსენებულ თემატიკაზე ცნობიერების ამაღლება და Deepfake-ის იდენტიფიცირების გზების შესახებ ინფორმირებულობის გაზრდა.
Deepfake-ის იდენტიფიცირების მეთოდები
სინთეზირებული აუდიო/ვიდეო ჩანაწერების, გამოსახულების იდენტიფიცირება უდიდეს გამოწვევას წარმოადგენს როგორც მათი სამიზნე აუდიტორიისთვის –საზოგადოების წევრებისთვის, ასევე – სფეროს სპეციალისტებისთვისაც. აღნიშნული დამოკიდებულია იმაზე თუ რამდენად დახვეწილი საშუალებები იქნა გამოყენებული Deepfake-ის შესაქმნელად.
იდენტიფიცირების მეთოდების ორი ძირითადი მიმართულება არსებობს – მექანიკური და ავტომატური.
ხშირად, ყალბი გამოსახულებების აუდიო ჩანაწერები შესაძლოა შეიცავდეს ნაკლს, რომლის აღმოჩენაც შესაძლებელია დაკვირვებული თვალით. მაგალითად, ასეთია სახის გარშემო გამოსახულების ბუნდოვანება (ე.წ. „blurring”), თვალების არაბუნებრივად, არასაკმარისად დახამხამება, თვალის გარსზე განათების არარეალური ანარეკლი, თმის, სისხლძარღვების არათანმიმდევრული სტრუქტურა, უნიკალური ელემენტები – ე.წ „არტეფაქტები“ (მაგალითად, ხელის თითების რაოდენობა, გამოსახულება, ბმა და ა.შ.), საუბრის მანერა, გამოსახულებას აცდენილი ხმა და სხვა.
ყალბი ვიდეოების ავტომატური იდენტიფიცირებისთვის სხვადასხვა სახის ტექნოლოგიები გამოიყენება, რომელთა ალგორითმებიც, როგორც წესი, უკვე არსებულ Deepfake-ის ნიმუშების სწავლების შედეგად გავრცელებული ინფორმაციის სიყალბეს ააშკარავებენ. ზოგიერთ შემთხვევაში, არსებული მოდელი შესაძლოა პიროვნების გამოსახულების ბიოლოგიური მონაცემების/პროცესების ანალიზს ახდენდეს და მათში უზუსტობის, არაბუნებრივი პროცესების აღმოჩენით სინთეზირებულ პროდუქტს აიდენტიფიცირებს. მაგალითად, გულის მიერ სისხლის ამოქაჩვისას სისხლძარღვები იცვლის ფერს, სახეზე სისხლის მოძრაობის ამ სიგნალით კი ალგორითმი რეალურ და ყალბ ვიდეოს განარჩევს ერთმანეთისგან.[7] გარდა ამისა, Deepfake-ის აღმოჩენა შესაძლებელია ასევე ბგერების, პირის მოძრაობის არათანმიმდევრულობის მიხედვით.[8]
აღნიშნული ელემენტების ამოცნობისთვის, კლასიფიცირების ალგორითმების სწავლება ნამდვილი და ყალბი აუდიოვიზუალური ნიმუშების დიდი ნაკრებს საჭიროებს. Deepfake-ის აღმომჩენი ტექნოლოგიები (ე.წ. დეტექტორები) ძირითადად უკვე არსებული ყალბი გამოსახულებების მახასიათებლებს ეყრდნობიან, შესაბამისად აღნიშნული მათთვის უცნობი მანიპულაციების (ყალბი კონტენტის) ამოცნობას ართულებს. არსებული ტექნოლოგიები, რომლებიც Deepfake-ის ამოცნობისთვის გამოიყენება, არ იძლევა ამგვარი გამოსახულების ამოცნობის მყარ გარანტიას. იგი გარკვეული გამოწვევების წინაშე დგას, რაც ნაწილობრივ გამოწვეულია ალგორითმის „სწავლების“ ეტაპზე არასრული, მწირი, არაზუსტი მონაცემების გამოყენებით. შესაბამისად, აღნიშნული ტექნოლოგიების გამოყენებისას, ხშირი შეიძლება იყოს როგორც „მცდარი პოზიტივები“, ასევე „მცდარი ნეგატივებიც“, ხოლო აღნიშნული ორივე შემთხვევაში ადამიანის უფლებათა დაცვას გარკვეულ რისკებს უქმნის.
Deepfake-ი და პერსონალურ მონაცემთა დაცვა
ყალბი აუდიო/ვიდეო ჩანაწერები და გამოსახულებები, ძირითად შემთხვევებში, აქტიურად გამოიყენება იმისათვის, რომ უარყოფით კონტექსტში მოახდინოს გავლენა საზოგადოებაზე. მართალია, აღნიშნული ციფრული მასალა რეალობას არ შეესაბამება, მაგრამ ერთ შემთხვევაში იგი შესაძლოა რეალური პიროვნებების მახასიათებლების გაერთიანებით სინთეზირებულ პროდუქტს – პერსონაჟს ქმნიდეს, მეორე შემთხვევაში კი აყალბებდეს რეალური პიროვნების ქმედებებს. შესაბამისად ნებისმიერ შემთხვევაში, Deepfake-ის შემქმნელი ხელოვნური ინტელექტის სწავლებების თუ კონკრეტული ციფრული გამოსახულების, ჩანაწერის შექმნა რეალური პიროვნებების პერსონალურ მონაცემთა დამუშავებას ეფუძნება. აღნიშნული ხორციელდება როგორც ალგორითმების „სწავლების“ პროცესში, ისე უშუალოდ Deepfake-ის შექმნის დროს ფიზიკური პირების მონაცემების შემცველი ციფრული მასალების მოპოვებისა და შემდგომი გამოყენებისას. შესაბამისად, ყველა აღნიშნულ პროცესზე გავრცელდება მონაცემთა დაცვის სამართლებრივი აქტები (გარდა იმ შემთხვევებისა რომლებიც არ ექცევა მათი მოქმედების ფარგლებში). აღსანიშნავია, რომ რეალური ინდივიდების მონაცემების საფუძველზე ფიქციური პიროვნებების შექმნამ შესაძლებელია კითხვის ნიშნის ქვეშ დააყენოს ამ პროცესის შესაბამისობა მონაცემთა დაცვის მარეგულირებელ აქტებთან თუ მონაცემთა მსგავსი გამოყენებით რეალური პიროვნების იდენტიფიცირების პოტენციალი იარსებებს. [9]
ევროპული პარლამენტის ერთ-ერთ კვლევაში, რომელიც Deepfake-ების მოწესრიგებას შეეხება, აღნიშნულია რომ იმ სერვისების შემუშავებისას, რომლებიც მსგავსი ტექნოლოგიების მეშვეობით ქმნის ყალბ გამოსახულებას, აუცილებელია მონაცემთა დაცვაზე ზეგავლენის შეფასება (DPIA) და მონაცემთა დაცვის ზოგადი რეგულაცია (GDPR) ვრცელდება როგორც Deepfake-ის აპლიკაციების შექმნაზე, ისე უშუალოდ ამ გამოსახულებების სინთეზირებასა და გავრცელებაზეც.[10]
აღნიშნულ დოკუმენტში ხაზგასმულია, რომ GDPR-ით გათვალისწინებული მხოლოდ ორი საფუძველი შეიძლება იყოს რელევანტური მონაცემთა დამუშავების ამ პროცესებისთვის: „ინფორმირებული თანხმობა“ ან/და „ლეგიტიმური ინტერესი“. ამ უკანასკნელის არსებობა, a priori არ გულისხმობს რომ Deepfake-ის შექნის მიზნით მონაცემთა დამუშავება გამართლებული იქნება. კერძოდ, აღნიშნული ინტერესი არ უნდა მოდიოდეს წინააღმდეგობაში კანონმდებლობასთან, ამასთან, იგი უნდა იყოს რეალური და არა - აბსტრაქტული.[11] გარდა ამისა, აუცილებელია, მონაცემთა სუბიექტის ფუნდამენტურ უფლებებსა და ლეგიტიმური ინტერეს შორის ბალანსი იყოს უზრუნველყოფილი.
ამასთან, გარდა სათანადო საფუძვლის არსებობისა აუცილებელია რომ მონაცემთა დამუშავების პროცესში დაცული იყოს დამუშავების პრინციპები, კერძოდ კი აღნიშნულ შემთხვევაში საყურადღებოა რომ მონაცემები უნდა დამუშავდეს სუბიექტისთვის გამჭვირვალედ და მისი ღირსების შეულახავად, მონაცემები უნდა იყოს ნამდვილი, ზუსტი. იმ შემთხვევაში კი როდესაც Deepfake-ის მეშვეობით ხდება კონკრეტული პიროვნების ქმედებების თუ მოვლენების გაყალბება, აღნიშნული მოთხოვნის დარღვევა გარდაუვალი შეიძლება იყოს.
Deepfake-ის აღმომჩენი ტექნოლოგიების დადებითი გავლენები პერსონალურ მონაცემთა დაცვაზე:[12]
- ფიზიკურ პირებზე Deepfake-ების გავლენის პრევენცია
Deepfake-ის აღმოჩენის ტექნოლოგიები, ზემოთ მითითებული შეზღუდვების ფარგლებში, შესაძლოა გამოყენებული იყოს ბოროტი განზრახვით შექმნილი ყალბი შინაარსის (ე.წ. „კონტენტის“) იდენტიფიცირებისთვის. მსგავსი გამოსახულებების აღმოჩენით და ამ ინფორმაციის სხვებისთვის გაზიარებით ინდივიდებსა თუ ორგანიზაციებს ანიჭებს შესაძლებლობას მიიღონ სათანადო ზომები პოტენციურად დამაზიანებელი დეზინფორმაციის გავრცელების შესაჩერებლად. აღნიშნული კი უზრუნველყოფს პირთა რეპუტაციისა და პირადი ცხოვრების დაცვას, ახდენს ყალბი სიახლეების, თაღლითობების ან/და კიბერბულინგის გავრცელების პრევენციას.
- Deepfake-ზე დაფუძნებული თავდასხმების პრევენციით პერსონალურ მონაცემთა დაცვა
Deepfake-ის ტექნოლოგიებით შესაძლებელია ინდივიდების ყალბი „ორეულის“ შექმნა (იგულისხმება რომ ფოტოსურათზე/ვიდეოჩანაწერზე არსებული ინდივიდის გამოსახულება კონკრეტულ პირთანაა მიმსგავსებული), რაც „პიროვნების ქურდობის“ (Identity Theft) ან განსაკუთრებული კატეგორიის მონაცემებთან არაავტორიზებული წვდომის პოტენციურ საფრთხეებს გამოიწვევს. რამდენადაც ყალბი ვიდეო და აუდიო კიბერდანაშაულების სხვადასხვა შემთხვევებში გამოიყენება, Deepfake-ის იდენტიფიცირების ძლიერი მექანიზმების არსებობით სენსიტიურ ინფორმაციასთან არაავტორიზებული წვდომების თავიდან არიდება იქნება შესაძლებელი.
- მონაცემთა სიზუსტის გაუმჯობესება მათი ნამდვილობის დადასტურებით
Deepfake-ის იდენტიფიცირების ტექნოლოგიები შესაძლოა მონაცემთა ნამდვილობის დადასტურებისთვისაც გამოიყენებოდეს. ფინანსურ, ჯანდაცვის და სამართლებრივ სექტორებში მონაცემთა სიზუსტეს განსაკუთრებული მნიშვნელობა აქვს, Deepfake-ის აღმოჩენის ხელსაწყოები შესაძლოა გამოიყენონ დოკუმენტების, აუდიო ჩანაწერების, ვიდეო გამოსახულებების ავთენტურობის დასადასტურებლად. აღნიშნული უზრუნველყოფს პირთა მიერ სანდო ინფორმაციაზე დაყრდნობით გადაწყვეტილებების მიღებას.
Deepfake-ის აღმომჩენი ტექნოლოგიების უარყოფითი გავლენები პერსონალურ მონაცემთა დაცვაზე:[13]
- სამართლიანობისა და ნდობის ნაკლებობა
კვლევებმა აჩვენა, რომ Deepfake-ის აღმომჩენი ტექნოლოგიების სწავლების პროცესში გამოყენებული მონაცემები არ არის მრავალფეროვანი და მიკერძოებულია. გამოვლინდა რომ არსებული აუდიო და ვიზუალური Deepfake-ის მონაცემთა ნაკრებები (dataset) სათანადო პროპორციულობით არ შეიცავს სხვადასხვა ეთნიკური წარმომავლობის, სქესის, კანის ფერის მქონე პირების მონაცემებს. ზოგიერთ შემთხვევებში ინდივიდთა ან საზოგადოების ჯგუფის სპეციფიკური მახასიათებლების არსებობა Deepfake-ის აღმოჩენის პროცესში სირთულეებს ქმნის. მიკერძოებული მოდელების რეალობაში გამოყენება გარკვეული ინდივიდების მიმართ დისკრიმინაციის სერიოზულ საფრთხეს ქმნის.
- აღმოჩენის მეთოდებში სამართლიანობისა და სიზუსტის ნაკლებობა
Deepfake-ის ამოცნობის არსებული მეთოდები დიდი მოცულობის მონაცემთა ნაკრების (dataset) ანალიზისთვის არის შემუშავებული. თუმცა პრაქტიკაში, მაგალითად, ჟურნალისტების ან სამართალდამცავი ორგანოების წარმომადგენლების მიერ, ამ ტექნოლოგიების გამოყენება შესაძლოა საჭირო გახდეს მხოლოდ მცირე მოცულობის აუდიო/ვიზუალური მასალის ანალიზისთვის. აღნიშნულ შემთხვევებში, სანამ ეს პირები ინფორმაციას გამოიყენებენ მათი პროფესიული საქმიანობისთვის, Deepfake-ის ანალიზის შედეგების სანდოობისათვის აუცილებელი შეიძლება გახდეს ნახსენები „დეტექტორების“ მიერ გამოსახულების სავარაუდო სიყალბის შეფასებისას მინიჭებული ქულის დასაბუთება - თუმცა, Deepfake-ის აღმოჩენის მეთოდებისა და ტექნოლოგიების უმეტესობა მსგავს განმარტებებს არ იძლევა.
სიზუსტის ნაკლებობა
რეალურ სამყაროში, ვიდეოების გადაკეთება/შეცვლა სხვადსხვა გზით, Deepfake-ის შექმნის გარეშეცაა შესაძლებელი. შესაბამისად, ის ფაქტი რომ „კონტენტი“ ყალბად არ არის მიჩნეული აღნიშნული „დეტექტორების“ მიერ, თავისთავად არ გულისხმობს რომ ვიდეო ნამდვილია.
ყალბი ფოტოსურათები და ვიდეოები სოციალური ქსელების მეშვეობითაც ვრცელდება, რაც იწვევს მათ ცვლილებას(როგორიცაა ზომის, მოცულობის შემცირება და სხვა), ხოლო აღნიშნულმა შესაძლოა „ცრუ ნეგატივების“ (არაიდენტიფიცირებული სიყალბე) რიცხვი გაზარდოს.
დიდი ხნის განმავლობაში საზოგადოების ინფორმირების მთავარი წყარო მედია საშუალებები იყო, რომლებიც თვითრეგულირების ფარგლებში უზრუნველყოფდნენ ინფორმაციის ხარისხსა და გავრცელებას.[14] ციფრული ტექნოლოგიების ეპოქაში, მაშინ როდესაც ინტერნეტზე წვდომა მოსახლეობის უმეტეს ნაწილს აქვს და სოციალური ქსელები არამხოლოდ პირადი მიზნით მიმოწერებისთვის გამოიყენება, არამედ ინფორმაციის განუსაზღვრელი რაოდენობის ადამიანებისთვის მიწოდების საშუალებასაც წარმოადგენს – ახალი „ინფორმაციული ეკოსისტემა“ ჩამოყალიბდა. აღნიშნულ პირობები კი ხელსაყრელ გარემოს ქმნის Deepfake ტექნოლოგიებით შექმნილი „კონტენტის“ გავრცელებისთვის. მათ მიმართ განსაკუთრებით მოწყვლადი არიან ის პირები რომლებიც არ ფლობენ სათანადო ინფორმაციას თანამედროვე ტექნოლოგიების ამ შესაძლებლობის თაობაზე.
ხელოვნური ინტელექტის გამოყენებით შექმნილმა გამოსახულებებმა შესაძლოა უამრავი საფრთხეები წარმოქმნას, როგორც მასზე აღბეჭდილი პირებისთვის, ასევე მისი სამიზნე აუდიტორიისთვისაც. მაგალითისთვის, საჯარო პირთა გაყალბებული გამოსახულებები, მოვლენებთან დაკავშირებით გავრცელებული ყალბი ინფორმაციის შემცველი ვიდეო გამოსახულება რომელიც საზოგადოების წევრთა მხრიდან ნამდვილად აღიქმება, შესაძლოა არასწორ შთაბეჭდილებებს უქმნიდეს ამ პირებს და ზოგიერთ შემთხვევაში მათ სამოქალაქო ჩართულობაზეც კი იქონიოს მცდარი გავლენა.[15] აღნიშნული ტექნოლოგიები შესაძლოა ცალკეულ შემთხვევებში მტკიცებულების გაყალბებისთვისაც გამოიყენონ, რისი იდენტიფიცირების შეუძლებლობაც სამართლიანი სასამართლოს უფლებას აყენებს საფრთხეს და ა.შ.[16] შესაბამისად, Deepfake-ის სხვადასხვა სახის გამოვლინებებს, რომელთაც ძირითად შემთხვევებში საზოგადოების ფართო წრეზე გავლენის მოსახდენად იყენებენ, სერიოზული ზიანის მოტანა შეუძლია, როგორც პირთა პირადი ცხოვრების ხელშეუხებლობისა და პერსონალურ მონაცემთა დაცვის, ასევე ადამიანის სხვა უფლებებისა და თავისუფლებებისთვის.
Deepfake-ების შექმნის თუ გავრცელების სრული პრევენცია პრაქტიკაში შეუძლებელი იქნება. მომავალში, ხელოვნური ინტელექტის ევოლუციის კვალდაკვალ მოსალოდნელია, რომ გაჩნდეს ისეთი „ციფრული პროდუქტები“, რომელთა შემუშავება და გამოყენება გარკვეულ საფრთხეებს უქმნის პირთა პერსონალური მონაცემების დაცულობასა და მათ ფუნდამენტურ უფლებებს. ამ პროცესში მნიშვნელოვანია ერთი მხრივ, ქმედითი სამართლებრივი მექანიზმების არსებობა, რაზეც ევროპარლამენტის ზემოთხსენებულ დოკუმენტშიცაა ხაზგასმული. მეორე მხრივ კი უმნიშვნელოვანესია საზოგადოების წევრთა ჩართულობა ამგვარ მოვლენასთან საბრძოლველად, რაშიც დიდი წვლილი სწორედ ცნობიერების ამაღლებასა და ცრუ ინფორმაციისადმი მედეგობას შეიძლება ჰქონდეს.
[1] ტერმინი “Deepfake” შექმნილია ორი სიტყვის შერწყმით, კერძოდ “deep”, რომელიც გამომდინარეობს ხელოვნური ინტელექტის „ღრმა სწავლების“ (Deep Learning) ტექნოლოგიის სახელწოდებიდან, და „fake” (ყალბი) – რაც გულისხმობს რომ ე.წ. „კონტენტი” არის გაყალბებული. Payne, Laura. "deepfake", Encyclopedia Britannica, 7 Oct. 2024, <https://www.britannica.com/technology/deepfake>[08.10.2024].
[2] European Parliamentary Research Service, Panel for the Future of Science and Technology, “Tackling Deepfakes in European Policy”, 2021.
[3] Council of Europe (CoE) Report, Information Disorder Toward an interdisciplinary framework for research and policymaking, 27.09.2017, 20, <https://edoc.coe.int/en/media/7495-information-disorder-toward-an-interdisciplinary-framework-for-research-and-policy-making.html>.
[4] United Nations Educational, Scientific and Cultural Organization (UNESCO), Journalism, Fake News & Disinformation: Handbook for Journalism Education and Training, 2018, 7, <https://unesdoc.unesco.org/ark:/48223/pf0000265552.locale=en>.
[5] Jesse Damiani, Forbes. “A Voice Deepfake Was Used To Scam A CEO Out Of $243,000”, 09.11.2019, <https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of243000/#5b10b1802241> [18.10.2024].
[6] OSCE, Strengthening Media and Information Literacy in the Context of Preventing Violent Extremism, September 2024, 20.
[7] Felipe Romero Moreno, Generative AI and deepfakes: a human rights approach to tackling harmful content, International Review of Law, Computers & Technology, 29 Mar 2024, §2.3.
[8] The Europol Innovation Lab, An Observatory Report on Facing Reality, Law Enforcement and the Challenge of Deepfakes, 2022, 16-17.
[9] Information Commissioners Office (ICO), Guidance on AI and data protection, 16.03.2023, 85.
[10] European Parliamentary Research Service, Panel for the Future of Science and Technology, “Tackling Deepfakes in European Policy”, 2021, 38-39.
[11] Court of Justice of The European Union (CJEU), Case C‑708/18, 11.12.2019, para. 44.
[12] Vítor Bernardo, Deepfake Detection, <https://www.edps.europa.eu/data-protection/technology-monitoring/techsonar/deepfake-detection_en>.
[13] იქვე.
[14] European Parliamentary Research Service, Panel for the Future of Science and Technology, “Tackling Deepfakes in European Policy”, 2021, 22.
[15] United Nations Human Rights, Office of the High Commissioner, OHCHR, Taxonomy of Human Rights Risks Connected to Generative AI.
[16] Trend Micro Research, United Nations Interregional Crime and Justice Research Institute (UNICRI), Europol’s European Cybercrime Centre (EC3), Malicious Uses and Abuses of Artificial Intelligence, 06.12.2021, <https://www.europol.europa.eu/publications-events/publications/malicious-uses-and-abuses-of-artificial-intelligence>.