მედიაში გავრცელებული ცნობებით, ირანთან ომის პირველ 24 საათში შეერთებულმა შტატებმა ათასი სამიზნე გაანადგურა, კვირის ბოლოს კი ამ რიცხვმა 3000-ს გადააჭარბა. შედარებისთვის, ეს 2003 წელს ერაყში შეჭრისას განხორციელებულ დარტყმებზე ორჯერ მეტია. მსგავსი უპრეცედენტო მასშტაბი სწორედ ხელოვნური ინტელექტის დამსახურებაა. მართალია, აშშ-ის ცენტრალური სარდლობა ამტკიცებს, რომ თითოეულ გადაწყვეტილებაში ადამიანი კვლავ ჩართულია და ტექნოლოგია მათ მხოლოდ უფრო ჭკვიანური და სწრაფი ნაბიჯების გადადგმაში ეხმარება, თუმცა რთული სათქმელია, რეალურად რა როლი აქვს ადამიანს მაშინ, როცა სისტემა ასეთი წარმოუდგენელი სისწრაფით მუშაობს.

ამის ნათელი მაგალითია ჰამასთან ომში ისრაელის მიერ ხელოვნური ინტელექტის სამიზნეების ამოსაცნობად გამოყენება. გასულ წელს გამოქვეყნებული გამოძიების თანახმად, ისრაელის არმია ღაზაში ეჭვმიტანილი მებრძოლების გამოსავლენად იყენებდა AI სისტემას, სახელად Lavender. ოფიციალური პოზიციით, თითოეული სამიზნის შერჩევაში ადამიანის შეფასებაც ფიგურირებდა. თუმცა, როგორც სისტემის ოპერატორები იხსენებენ, როცა პერსონალმა ალგორითმს ნდობა გამოუცხადა, მათი ჩართულობა მხოლოდ იმის დადასტურებით შემოიფარგლებოდა, რომ სამიზნე ნამდვილად მამაკაცი იყო. ოპერატორების თქმით, თითოეულ სამიზნეზე დაახლოებით 20 წამი იხარჯებოდა და ადამიანური ფაქტორი მხოლოდ ფორმალური დასტურის გაცემას წარმოადგენდა, რაც დროის უზარმაზარ ეკონომიას იძლეოდა.

ანალოგიური ტენდენცია უკვე ბიზნეს სექტორშიც მკვიდრდება. 2023 წელს გაირკვა, რომ ამერიკის ერთ-ერთმა უმსხვილესმა სადაზღვევო კომპანია Cigna-მ დანერგა ალგორითმი, რომელიც ჯანმრთელობის დაზღვევის მოთხოვნებს ავტომატურად ბლოკავდა. ექიმები, რომლებსაც კანონით კლინიკური განსჯის ვალდებულება ჰქონდათ, ალგორითმის გადაწყვეტილებებს მასობრივად, თითო საქმეზე საშუალოდ 1.2 წამის დახარჯვით აწერდნენ ხელს. იყო შემთხვევა, როცა ერთმა ექიმმა ერთ თვეში 60 000-ზე მეტი მოთხოვნა უარყო. ყოფილი თანამშრომლების გადმოცემით, პროცესი მხოლოდ ღილაკზე დაჭერით შემოიფარგლებოდა და 50 საქმის ერთდროულად დამუშავებას სულ რაღაც 10 წამი სჭირდებოდა.

დარტყმის დასამტკიცებლად 20 წამი, სამედიცინო მოთხოვნის უარსაყოფად კი 1.2 წამი – მართალია, ამ პროცესებში ადამიანი ფორმალურად ჩართულია, მაგრამ იქ ადამიანურობისთვის ადგილი აღარ რჩება.

თუ პროცესში ჩართული ადამიანი თითოეულ გადაწყვეტილებაზე მხოლოდ წამებს ხარჯავს, მაშინ კითხვა, სისტემა ავტონომიურია თუ მას ადამიანი მართავს, ფაქტობრივად აზრს კარგავს. აუცილებელია, რომ პროცესში არა მხოლოდ ადამიანი, არამედ ადამიანურობაც ფიგურირებდეს. ასეთ სიტუაციებში ადამიანს უნდა მიეცეს უფლება, დარჩეს ადამიანად, თუნდაც ეს ნიშნავდეს, რომ ის უფრო ნელი, ნაკლებად ზუსტი და ნაკლებად ეფექტური იქნება. ეს არის ის ფასი, რომელსაც ვიხდით სასიცოცხლოდ მნიშვნელოვანი რამისთვის – ადამიანმა უნდა იგრძნოს თავისი გადაწყვეტილებების სიმძიმე, რადგან სწორედ ეს სირთულე ქმნის იმ წინააღმდეგობას, რომელიც გვაიძულებს შევჩერდეთ, დავსვათ კითხვები და საჭიროების შემთხვევაში, უკან დავიხიოთ.

როდესაც რთული გადაწყვეტილებები მარტივდება, თავად ინსტიტუციაც იცვლება. ადამიანები კითხვების დასმას წყვეტენ, რადგან საეჭვო აღარაფერი რჩება – სისტემამ უკვე მიიღო გადაწყვეტილება, ადამიანის როლი კი მხოლოდ დადასტურებაა. წინააღმდეგობის განცდა ქრება, რადგან ის ხახუნს მოითხოვს, რომელიც ხელოვნურადაა ამოღებული პროცესიდან. ანგარიშვალდებულება უფასურდება, რადგან ყველამ იცის, რომ საქმეს კომპიუტერი აკეთებს. სადაზღვევო კომპანიის ის ექიმი, რომელმაც ერთ თვეში 60 000 საქმე დაბლოკა, სასტიკი სულაც არ იყო. ის უბრალოდ მოხვდა სისტემაში, სადაც მოთხოვნის უარყოფა ღილაკზე ერთი დაჭერით იყო შესაძლებელი. ალგორითმმა მისი განსჯის უნარი კი არ დააზიანა, არამედ ის უბრალოდ არასაჭიროდ აქცია. ეს შემთხვევა ერთი კონკრეტული ცუდი თანამშრომლის ამბავი არ არის, ეს არის იმის ილუსტრაცია, თუ რა ემართება ინსტიტუციას, როცა ის მიზანმიმართულად აცლის სიმძიმეს ყველაზე რთულ გადაწყვეტილებებს.

ანგარიშვალდებულების გაქრობას ბიზნესისთვის თავისი ფასი აქვს, რაც ძირითადად სამ მიმართულებაში იჩენს თავს. პირველ რიგში, ეს ეხება იურიდიულ პასუხისმგებლობას. ალგორითმს ვერ უჩივლებენ, ვერ გაათავისუფლებენ სამსახურიდან და მას შეცდომებზე პასუხს ვერ მოსთხოვენ. ამის ნაცვლად, პასუხისმგებლობა იმ ორგანიზაციას ეკისრება, რომელმაც ის დანერგა. ზედამხედველობის ფორმალური, ბეჭდის დარტყმის დონეზე დაყვანა იურიდიული ნაღმია, რომელიც უბრალოდ ამოქმედებას ელოდება. მეორე პრობლემა ინსტიტუციური სისუსტეა. როდესაც ადამიანები ნამდვილად აღარ ერთვებიან გადაწყვეტილების მიღების პროცესში, ისინი წყვეტენ შეცდომებზე სწავლას.

სანამ ბიზნესის ლიდერები გადაწყვეტილებების მისაღებად ხელოვნურ ინტელექტს გამოიყენებენ, მათ რამდენიმე კრიტიკულ საკითხზე უნდა იფიქრონ. უპირველესად, გასაანალიზებელია, რა ინსტიტუციურ ქცევებს ბადებს კონკრეტული გადაწყვეტილების მიღების ამჟამინდელი სირთულე – იქნება ეს მკაცრი კონტროლი, ესკალაცია თუ განსხვავებული აზრი – და რა დაუჯდება კომპანიას მათი დაკარგვა. მეორე მხრივ, ექსპერტები ლიდერებს ურჩევენ დაფიქრდნენ, შეძლებენ თუ არა პრობლემის გაჩენისას იმ ადამიანის პოვნას, ვინც ამ გადაწყვეტილებაზე იფიქრა, თუ მხოლოდ იმას იპოვიან, ვინც ღილაკს დააჭირა. ამასთან, კომპანიებს უნდა ჰქონდეთ გაზომვადი ინდიკატორები იმის გასაგებად, რომ მათი თანამშრომლები უბრალო ფორმალურ შემსრულებლებად არ იქცნენ.

წყარო: Fastcompany;  www.marketer.ge