ახალი ამბები

ხელოვნური ინტელექტი და პერსონალური მონაცემები: სად არის ზღვარი

3 დეკემბერი, 2020 • 1387
ხელოვნური ინტელექტი და პერსონალური მონაცემები: სად არის ზღვარი

ხელოვნური ინტელექტი უკვე დიდი ხანია, აღარ წარმოადგენს მომავლის ტექნოლოგიას. მრავალი მიმართულებით ის უკვე აწმყოს პროდუქტია, რომელიც ცხოვრების გამარტივებასთან ერთად მრავალი გამოწვევის წინაშე აყენებს როგორც მწარმოებლებს, ისე მომხმარებლებს. ერთ-ერთი მნიშვნელოვანი გამოწვევა უკავშირდება ზღვარს, რომელიც ხელოვნური ინტელექტის სიკეთეებსა და პერსონალურ მონაცემებს შორის გადის.

საქართველოს ხელისუფლებას სურს, ამ გამოწვევებს საკანონმდებლო ცვლილებებით უპასუხოს და საკითხი უფრო მეტად დაარეგულიროს. მიუხედავად იმისა, რომ არასამთავრობო სეტქორიც საუბრობს სფეროს რეგულირების მნიშვნელობაზე, ისინი გამოყოფენ რამდენიმე პრობლემურ საკითხს, რამაც შესაძლოა, გააუარესოს კორუფციასთან ბრძოლა და გამჭვირვალობა.

აღნიშნულ გამოწვევებზე იმსჯელეს საქართველოს ინტერნეტმმართველობის მეექვსე ფორუმის ფარგლებში, რომელიც 2-3 დეკემბერს ონლაინ გაიმართა. დისკუსიისას ახსენეს 2019 წელს სახელმწიფო ინსპექტორის სამსახურის მიერ მომზადებული კანონპროექტიც, რომელიც შეიცავს მონაცემთა, მათ შორის, ავტომატიზებული დამუშავების კუთხით, რიგ ცვლილებებს. ევროპული გამოცდილების შესახებ ევროპის საბჭოს ინფორმაციული განვითარების სამმართველოს უფროსმა ისაუბრა.

რა არის ხელოვნური ინტელექტი?

ხელოვნური ინტელექტი უხილავი ალგორითმია, რომელთანაც, ცნობიერად თუ გაუაზრებლად, სხვადასხვა ფორმით, ყოველდღიურად გვაქვს შეხება. ჭკვიანი ალგორითმი კომპიუტერის მეშვეობით ვიზუალურ მასალად გარდაქმნის მონაცემებს, რომელთა გადამუშავებასაც “სთხოვენ”.

ხელოვნური ინტელექტი დამოუკიდებლად მოქმედებს, თუმცა მანამდე მას ადამიანი აძლევს ინსტრუქციებს, რომლებიც ალგორითმშია კოდირებული. სწორედ ასეთი ალგორითმის დამსახურებაა, რომ  Youtube-ის მთავარ გვერდზე თქვენგან დამოუკიდებლად ლაგდება თქვენთვის რეკომენდებული ვიდეოები, Facebook-ზე კი ძირითადად იმ ადამიანების აქტივობებს ხედავთ, რომლებთანაც ყველაზე ხშირად გაქვთ ურთიერთობა.

თუმცა, ზოგჯერ ხომ არ ფიქრობთ, რომ ჭკვიანმა ალგორითმებმა შეიძლება თქვენ შესახებ იმაზე მეტი იცოდეს, ვიდრე გსურთ? თუ ფიქრობთ, ნუ მოგერიდებათ, მარტო არ ხართ: ტექნოლოგიების ეპოქაში როგორც კერძო მწარმოებლებისა და დეველოპერებისთვის, ისე მთავრობებისთვის ერთ-ერთ უმთავრეს გამოწვევად სწორედ ზემოხსენებული ზღვარი მიიჩნევა, რომლის მიღმაც პირადი, ხშირად კი, საკმაოდ დელიკატური მონაცემებია.

ხელოვნური ინტელექტი და პირადი მონაცემები: რატომ არის ეს მნიშვნელოვანი?

პირად მონაცემებთან დაკავშირებული გამოწვევა ხელოვნური ინტელექტის არეალის გაფართოებასთან ერთად იზრდება. ამის ყველაზე კარგი მაგალითი სოციალური ქსელებია, რომლებიც წლიდან წლამდე მდიდრდება ავტომატიზებული, ჭკვიანი ალგორითმებით.

“ეს ყველაფერი, ჯამში, ხელოვნურ ინტელექტზე დაფუძნებულ სისტემებს აძლევს შესაძლებლობას, რომ მოახდინონ ჩვენი ონლაინ აქტივობების კონტროლი, რაც პირდაპირი მნიშვნელობით არის ჩვენს პირად ცხოვრებაში ჩარევა.

შესაბამისად, ძალიან დიდი მნიშვნელობა ენიჭება მონაცემებს: თუ რაიმე არაზუსტი მონაცემი იქნება გამოყენებული, ამან შეიძლება, ადამიანის ისეთი ფუნდამენტური უფლების დარღვევა გამოიწვიოს, როგორიცაა პირადი ცხოვრების ხელშეუხებლობა”, – ამბობს ბექა ქენქაძე, სახელმწიფო ინსპექტორის სამსახურის იურისტი კერძო სექტორზე ზედამხედველობის კუთხით.

დისკუსია ამ საკითხზე მუდმივად აქტუალურია, სურათი კი თითქმის არასდროს არის ერთგვაროვანი.

მაგალითად, მიმდინარე წლის მაისში საფრანგეთის სენატმა აზრთა სხვადასხვაობისა და ცხარე დისკუსიის ფონზე დაუჭირა მხარი სახელმწიფოს მიერ შექმნილი აპლიკაციის ამოქმედებას, რომელიც COVID-19-ის პრევენციას ისახავს მიზნად. აპლიკაცია ეფექტიანია, თუნდაც, კონტაქტების გამოსავლენად, თუმცა საზოგადოების ნაწილი სვამდა კითხვას,  როგორ გამოიყენებდნენ მათ პერსონალურ მონაცემებს, რომლებიც აპლიკაციით სარგებლობისათვის უნდა გაეცათ.

აღნიშული მოცემულობა დილემას ქმნის, ერთი მხრივ, ხელოვნური ინტელექტის მწარმოებლების, მეორე მხრივ კი – მარეგულირებლებისთვის. მათ უნდა გადაწყვიტონ, როგორ მოძებნონ ბალანსი ხელოვნური ინტელექტის გამოყენებასა და პერსონალური მონაცემების დაცვას შორის ისე, რომ რეგულირებამ ტექნოლოგიის განვითარებას ხელი არ შეუშალოს.

რას აკეთებს ამ კუთხით სახელმწიფო?

სახელმწიფო ინსპექტორის სამსახურმა პარლამენტში 2019 წელს წარადგინა კანონპროექტი, რომელიც მონაცემთა დამუშავების კომპონენტში არაერთ ცვლილებას მოიცავს. როგორც ავტორები ამბობენ, ის ქართულ კანონმდებლობას აახლოებს ევროსტანდართან.

“ამ ცვლილების ერთ-ერთი უმთავრესი განმაპირობებელი ფაქტორი იყო ის, რომ არსებული და დღეს მოქმედი კანონი ვერ პასუხობდა იმ ტექნოლოგიურ გამოწვევებსა და სიახლეებს,რომლებიც ყოველდღიურად ხდება ჩვენს ცხოვრებში”,  აცხადებს უწყების წარმომადგენელი ბექა ქენქაძე.

ახალი კანონპროექტი, როგორც ქენქაძე აღნიშნავს, აფართოებს მონაცემთა სუბიექტის უფლებებს, რაც უშუალოდ არის დაკავშირებული ხელოვნურ ინტელექტთან. მაგალითად, მოქალაქეს შეეძლება, უარი თქვას მონაცემთა ავტომატიზებულ დამუშავებაზე, თუ ფიქრობს, რომ ეს მის სამართლებრივ, ფინანსურ თუ სხვა მდგომარეობაზე უარყოფითად აისახება.

მოქმედი კანონმდებლობით, სუბიექტის მოთხოვნის შემთხვევაში, მონაცემთა დამმუშავებელი ვალდებულია გაასწოროს, განაახლოს, დაამატოს, დაბლოკოს, წაშალოს ან გაანადგუროს მონაცემები, თუ ისინი არასრული და არაზუსტია; ასევე მაშინ, თუ არ არის განახლებული, ან მათი შეგროვება და დამუშავება განხორციელდა კანონის საწინააღმდეგოდ.

ინსპექტორის სამსახურის კანონპროექტი აზუსტებს იმ გარემოებებს, რომელთა შემთხვევაშიც სუბიექტს მსგავსი მოთხოვნების გახმიანების უფლება აქვს. მათ შორისაა ვითარება, როცა მონაცემების დამუშავება აღარ არის საჭირო თავდაპირველი მიზნისთვის. მონაცემთა დამუშავება წყდება მაშინაც, როცა სუბიექტი გაითხოვს თანხმობას, რომელიც წარმოადგენს ამ პროცესის ერთადერთ საფუძველს.

მეორე მხრივ, ახალ კანონპროექტში მოქმედ რედაქციასთან შედარებით შემცირებული და გამკაცრებულია მონაცემთა დამუშავების საფუძვლები. მაგალითად, ახალ ვერსიაში მონაცემების საჯაროობა აღარ არის მათი დამუშავების კანონიერი საფუძველი.

მოქმედი კანონმდებლობისა და კანონპროექტის რედაქციების შედარება. გრაფიკა: "საერთაშორისო გამჭვირვალობა"

მოქმედი კანონმდებლობისა და კანონპროექტის რედაქციების შედარება. გრაფიკა: “საერთაშორისო გამჭვირვალობა”

“საერთაშორისო გამჭვირვალობამ” პერსონალურ მონაცემთა კანონმდებლობის ევროსტანდარტებთან ჰარმონიზაცია დადებითაც შეაფასა, თუმცა გასულ წელსვე წარადგინა რამდენიმე პრობლემური საკითხი. ერთ-ერთი სწორედ მონაცემთა დამუშავების საფუძვლების შემცირებას ეხება.

“[კანონპროექტით] შეუძლებელი გახდება ისეთი მონაცემის დამუშავებაც, რომელიც კანონის თანახმად ისედაც გასაჯაროებული და ყველასათვის ხელმისაწვდომია. ეს ცვლილება მნიშვნელოვნად ცვლის ბალანსს გამჭვირვალობისა და საჯაროობის საზიანოდ.

კანონპროექტი არ უშვებს ასეთი ინფორმაციის დამუშავების უფლებას მაშინაც კი, თუ დამუშავების მიზანი არის ისეთი საჯარო სიკეთეების მიღწევა, როგორიცაა, მაგალითად, კორუფციასთან ბრძოლა, პოლიტიკური ფინანსების გამჭვირვალობა და ა.შ.”, – ვკითხულობთ ორგანიზაციის შეფასებაში.

ორგანიზაცია ავტორებს ეუბნება, რომ მონაცემთა დამუშავების საფუძვლები ცხადად უნდა ითვალისწინებდეს უკვე საჯარო მონაცემების იმგვარი დამუშავების შესაძლებლობას, რომელიც ემსახურება საჯარო და ლეგიტიმურ მიზნებს.

ზემოხსენებულ კონფერენციაზე ასევე ისაუბრეს რეკომენდაციებსა და საერთაშორისო გამოცდილებაზე, რომელთა სამომავლოდ გათვალისწინება სახელმწიფოს ასევე დაეხმარება ბალანსის დაცვაში. მათ შორისაა ალტერნატიული სერვისის შექმნა, ავტომატიზებულ გადაწყვეტილებებზე უარის შემთხვევაში, მონაცემთა სუბიექტებს მისცემს უფლებას, ადამიანური რესურსის გამოყენებით დამუშავდეს მათი მონაცემები.

“ჩაქუჩს კვერცხის ნაჭუჭზე ვერ გამოვიყენებთ”

ევროპის საბჭოს წარმომადგენელი იანიკ მენესორი ხელოვნურ ინტელექტს პირობითად ადარებს ჩაქუჩს, რომელიც შესანიშნავად აჭედებს ლურსმნებს – ანუ, აგვარებს პრობლემებს. თუმცა მისი ყოველმხრივი უნივერსალურობა სათუოა მაშინ, როცა საქმე სხვა სპეციფიკის პრობლემებს ეხება.

“რა თქმა უნდა, ძალიან კარგი იქნება, ჩაქუჩი გამოვიყენოთ ლურსმნებზე, თუმცა ჩაქუჩს ვერ გამოვიყენებთ კვერცხის ნაჭუჭზე. [შესაბამისად], ჯერ უნდა გავიგოთ, რისი გაკეთება შეუძლია ხელოვნურ ინტელექტს და, მაგალითად, როგორია სტატისტიკური მიდგომა, აკადემიური წრეების პოზიცია…

როცა ზუსტად გვეცოდინება, მერე უკვე შევძლებთ, ინვესტიცია ჩავდოთ [ამ მიმართულებით]. მაგრამ თუ ხელოვნური ინტელექტი ყველგან იქნება გამოყენებული ძლიერი რეკომენდაციებისა და მკაცრი რეგულაციების გარეშე, მერე შეიძლება პრობლემები წარმოიქმნას. ევროპის საბჭო მხარს უჭერს იმას, რომ ეს საკითხი უფრო ნათელი განსჯის ობიექტი გახდეს”, – აცხადებს ის.

ევროპის საბჭოს საპარლამენტო ასამბლეამ უკვე დაამტკიცა ზოგადი პრინციპები, რომლებიც მწარმოებლებმა უნდა გაითვალისწინონ ხელოვნური ინტელექტის აპლიკაციების განვითარების პროცესში. თუმცა ასამბლეა ასევე საუბრობს სამართლებრივი რეგულაციის საჭიროებაზე “დემოკრატიის, ადამიანის უფლებებისა და კანონის უზენაესობისადმი რისკების აღმოსაფხვრელად”.

მწარმოებლის პასუხისმგებლობა… არამხოლოდ შემოსავალზე

ხელოვნური ინტელექტის ინჟინერი გიგა ჩოხელი რისკების თავიდან აცილების პროცესში ინტელექტის მწარმოებელთა პასუხისმგებლობაზე საუბრობს. მისი თქმით, მნიშვნელოვანია, რომ დეველოპერებმა იფიქრონ არა მხოლოდ პოტენციურ შემოსავალზე, არამედ იმაზეც, თუ როგორ იქნება გამოყენებული მათი პროდუქტი.

იმის საილუსტრაციოდ, რომ რისკების გათვლის საკითხი დღეისათვის მნიშვნელოვანი გამოწვევაა, გიგა ჩოხელი იხსენებს 2016 წელს ჰარვარდის უნივერსიტეტის მიერ ორგანიზებულ “ინოვაციების კვირას”, რომელსაც თავადაც დაესწრო.

“ერთ-ერთი ბოლო საუბარი ეხებოდა რეგულაციებსა და ეთიკას, ტექნოლოგიებისა და ვირტუალური რეალობის საკითხს. ალბათ, 10-15 ადამიანი დაესწრო მას.

კითხვა დავსვი, სად იყვნენ ის ადამიანები, ვინც წინა გამოსვლებში საუბრობდნენ ტექნოლოგიებზე, კომპანიებზე, რომელთაც უნდა დააგროვონ მილიარდობით შემოსავალი… ძალიან პირდაპირი პასუხი მივიღე მოდერატორისგან, რომ არცერთი მათგანი იყო საკმარისად კვალიფიციური, რომ ამ საკითხზე ესაუბრა.

ეს პასუხი ნათლად გვაჩვენებს, თუ რა პრობლემის წინაშე დგას ტექნოლოგიების სექტორი: ადამიანები, რომლებიც ამ ტექნოლოგიებს ვქმნით, არ ვართ საკმარისად კვალიფიციურები, რომ პასუხისმგებლობა ავიღოთ ჩვენს ტექნოლოგიებსა და ჩვენ მიერ მიღებულ გადაწყვეტილებებზე, რომლებიც მილიარდობით ადამიანის ყოველდღიურობაშია შეჭრილი”, – დასძენს ის.

ხელოვნური ინტელექტის ინჟინერი ყურადღებას ამახვილებს ხარვეზებზე, რომლებითაც ხასიათდება კონკრეტულად ინტერნეტ-რეკლამის ბიზნესი. მისი თქმით, ავტომატიზებული ალგორითმების მკაფიო მიზანი შემოსავლის გენერირებაა, ამ ფონზე კი ხშირად ზიანდება მომხმარებლის ინტერესი.

ის Youtube-ის ზემოხსენებულ ალგორითმზე საუბრობს, რომელიც თითოეული ვიდეოს ყურების შემდეგ ე.წ. სარეკომენდაციო ვიდეოების კომპლექტს გვიჩვენებს ეკრანზე.

“Youtube-ის რამდენიმე ბიჯით ჩავდივართ რეკომენდაციებში, სადაც საკმაოდ არასახარბიელო შედეგებს ვიღებთ. უკვე არაერთი შემთხვევა იყო, როდესაც პლანშეტთან მარტო დარჩენილმა ბავშვმა მიიღო ფსიქოლოგიური ტრავმა მას შემდეგ, რაც რამდენიმე ბიჯის შემდეგ მისთვის დამაზიანებელ კონტენტს უყურა”.

კონფერენციაზე გიგა ჩოხელი არაერთ სიკეთეს შეეხო, რომელსაც ხელოვნური ინტელექტის განვითარება კაცობრიობას უქადის. მეორე მხრივ, ხაზი გაუსვა კოორდინაციის მნიშვნელობას რისკების შესამცირებლად:

“ბატონი ერიკ ბრინიელსონი, სტენფორდის უნივერსიტეტის ციფრული ეკონომიკის დეპარტამენტის ხელმძღვანელი გვეუბნება, რომ ხელოვნური ინტელექტისა და რობოტიკის განვითარებით რეალურად შეგვიძლია აღმოვფხვრათ შიმშილობა და სიღარიბე.

თუმცა ამისათვის აუცილებელია რეგულაცია და აქტიური თანამშრომლობა ტექნოლოგიების სექტორსა და საკანონმდებლო ორგანოებს შორის”.

მასალების გადაბეჭდვის წესი