ევროპარლამენტმა ხელოვნური ინტელექტის შესახებ კანონი - AI-Act-I მიიღო, რომელიც ადგენს წესებსა და მოთხოვნებს ხელოვნური ინტელექტის მოდელების შემქმნელებისთვის.

დადგენილი წესები აყალიბებს რისკზე დაფუძნებულ მიდგომას ხელოვნურ ინტელექტის მიმართ და ადგენს ვალდებულებებს AI-ს დეველოპერებისა და მომხმარებლებისთვის.

პარლამენტმა ასევე დააზუსტა ხელოვნური ინტელექტის მიერ აკრძალული პრაქტიკის ჩამონათვალი. მასში შედიოდა:

ბიომეტრიული იდენტიფიკაციის წაშლა. ეს ფუნქცია ეხებათ  მხოლოდ

სამართალდამცავ ორგანოებს, მხოლოდ სასამართლოს ნებართვის შემდეგ;

ბიომეტრიული კატეგორიზაცია სენსიტიური მახასიათებლების გამოყენებით (მაგ. სქესი, რასა, ეთნიკური წარმომავლობა, მოქალაქეობა, რელიგია, პოლიტიკური პოზიცია);

პროგნოზირებადი პოლიციის სისტემები (დაფუძნებული პროფილზე, მდებარეობაზე ან წარსულში დანაშაულებრივ ქცევაზე);

ემოციების ამოცნობა სამართალდამცავებში, მესაზღვრეებში, სამუშაო ადგილებსა და სკოლებში;

ბიომეტრიული მონაცემების მოპოვება სოციალური ქსელებიდან ან ვიდეო ჩანაწერებიდან, სათვალთვალო კამერებიდან სახის ამოცნობა მონაცემთა ბაზების შესაქმნელად.

კანონი აკონკრეტებს „მაღალი რისკის“ AI სისტემების ჩამონათვალს. დოკუმენტის მიხედვით, ეს არის სისტემები, რომლებსაც შეუძლიათ პოტენციურად ზიანი მიაყენონ ადამიანის ჯანმრთელობას ან გარემოს. ეს მოიცავს ხელოვნური ინტელექტის სისტემებს, რომლებიც გამოიყენება ამომრჩევლებზე ზემოქმედების მიზნით პოლიტიკურ კამპანიებში და სოციალური მედიის რეკომენდაციების ალგორითმებში.

„მაღალი რისკის" ხელოვნური ინტელექტის მომწოდებლები და დეველოპერები კანონით ვალდებულნი არიან განახორციელონ რისკისა და შესაბამისობის შეფასებები, დაარეგისტრირონ თავიანთი სისტემები ევროპულ AI მონაცემთა ბაზაში, მიაწოდონ მაღალი ხარისხის მონაცემები, რომლებიც გამოიყენება AI ტრენინგისთვის, უზრუნველყონ სისტემის გამჭვირვალობა და მომხმარებლის ინფორმირებულობა და სავალდებულო ზედამხედველობა.

დაბალი რისკის AI-სთვის, როგორიცაა ჩატბოტები, მათ მიმწოდებლებს მოეთხოვებათ აცნობონ მომხმარებლებს, რომ ისინი ურთიერთობენ AI-სთან და არა ადამიანთან. გენერაციულ მოდელებს ემატება კიდევ ერთი მოთხოვნა - მომხმარებლების ინფორმირება, რომ კონტენტი შექმნილია ნეირონული ქსელით.