ძირითადი ხელოვნური ინტელექტის (AI) სისტემები, რომლებსაც მილიონობით ადამიანი ყოველდღიურად იყენებს, ასე თუ ისე ამახინჯებს შინაარსს, – ამის შესახებ ნათქვამია კვლევაში, რომლის კოორდინატორი გახდა ევროპის მაუწყებელთა კავშირი.
პროფესიონალმა ჟურნალისტებმა გააანალიზეს ChatGPT-ის, Copilot-ის, Gemini-ის და Perplexity-ის 3000-ზე მეტი პასუხი ძირითადი კრიტერიუმების მიხედვით, მათ შორის სიზუსტის, წყაროს ხელმისაწვდომობისა და ხარისხის, მოსაზრებისა და ფაქტისგან განსხვავების უნარისა და კონტექსტის მიწოდების საფუძველზე.
აღმოჩნდა, რომ ხელოვნური ინტელექტის ყველა პასუხის 45% არ აკმაყოფილებდა ერთ ან მეორე კრიტერიუმს.
მაგალითად, შემთხვევათა 31%-ში ხელოვნური ინტელექტის მიერ მითითებული წყაროები ან არ არსებობდა, ან სრულიად არ შეესაბამებოდა ხელოვნური ინტელექტის მიერ მოწოდებულ პასუხს. შეტყობინებების 20%-ში ხელოვნურმა ინტელექტმა გამოიგონა არარსებული დეტალები და მოძველებული ინფორმაცია მიაწოდა. ყველაზე ცუდი შედეგი Gemini–მ აჩვენა, სადაც ინფორმაციის სანდოობასა და სისრულესთან დაკავშირებული პრობლემები შემთხვევათა 76%-ში დაფიქსირდა.
ევროპის მაუწყებელთა კავშირს სურს, რომ ასეთი კვლევები მუდმივი გახდეს. ის ხაზს უსვამს, რომ ხელოვნური ინტელექტის ასისტენტების რეგულარული დამოუკიდებელი მონიტორინგი აუცილებელია მათი განვითარების სწრაფი ტემპის გათვალისწინებით.
კვლევაში მონაწილეობა 11 ევროპული ქვეყნის საზოგადოებრივმა მედია ორგანიზაციამ მიიღო.