„სტენფორდის” ცნობილმა უნივერსიტეტი ახალ კვლევას გვთავაზობს, რომლის მთავარი თემაც AI-ჩატბოტებია. კერძოდ, შესწავლილ იქნა ფენომენი, როცა ჩატბოტები მომხმარებელს უმეტესად ეთანხმებიან, აქებენ და იშვიათად ეუბნებიან, რომ შეიძლება ცდებოდეს.

სტენფორდის მკვლევრებმა შეისწავლეს, რამდენად საზიანოა ეს ტენდენცია. კვლევის მოტივაცია ის იყო, რომ ახალგაზრდები სულ უფრო იყენებენ ჩატბოტებს პირადი და ემოციური დიალოგებისთვის, მათ შორის, ურთიერთობებზეც კი ეკითხებიან რჩევებს.

მკვლევრების აზრით, AI ხშირად თავს არიდებს „მკაცრ სიმართლეს“ და ამის გამო არსებობს რისკი, რომ ადამიანებმა დაკარგონ რთული სოციალური სიტუაციების მართვის უნარი.

კვლევა ორ ნაწილად ჩატარდა:

პირველ ნაწილში 11 სხვადასხვა AI-მოდელი შეამოწმეს. მათ უსვამდნენ კითხვებს: პირად ურთიერთობებზე, პოტენციურად საზიანო ან არალეგალურ ქმედებებზე, Reddit-ის რეალურ ისტორიებზე, სადაც საზოგადოება ავტორს არ ეთანხმებოდა.

აღმოჩნდა, რომ AI-ს პასუხები ადამიანებთან შედარებით ბევრად უფრო ხშირად ამართლებდა მომხმარებლის ქცევას – დაახლოებით 49%-ით უფრო ხშირად. Reddit-ის მაგალითებში AI თითქმის ნახევარ შემთხვევაში მაინც უჭერდა მხარს ავტორს, მიუხედავად იმისა, რომ ადამიანები საპირისპიროს ფიქრობდნენ. ასევე, საშიშ ან არასწორ ქმედებებთან დაკავშირებითაც AI თითქმის ნახევარ შემთხვევაში მაინც ამართლებდა მომხმარებელს.

მეორე ნაწილში 2400-ზე მეტ ადამიანს დააკვირდნენ, თუ როგორ რეაგირებდნენ ისინი სხვადასხვა ტიპის AI-ზე. შედეგები აჩვენებდა, რომ:

  • ადამიანები უფრო მეტად ენდობოდნენ და მოსწონდათ ისეთი AI, რომელიც მათ ეთანხმებოდა
  • ასეთ AI-სთან მომავალშიც უფრო ხშირად უნდებოდათ დიალოგი
  • ამასთან, ისინი უფრო მეტად დარწმუნდნენ საკუთარ სიმართლეში
  • ნაკლებად იყვნენ მზად ბოდიშის მოხდისთვის

მკვლევრების დასკვნით, ეს პრობლემაა: რაც უფრო „მომხმარებლის მომხრეა“ AI, მით უფრო პოპულარული ხდება, მიუხედავად იმისა, რომ ეს შეიძლება საზიანო იყოს. ასევე, აღმოჩნდა, რომ ასეთი ურთიერთობა ადამიანებს უფრო ეგოცენტრულსა და კატეგორიულს ხდის.

მკვლევრები მიიჩნევენ, რომ ეს უკვე უსაფრთხოების საკითხია და საჭიროებს რეგულაციას. პარალელურად მიმდინარეობს მუშაობა იმაზე, თუ როგორ გახდეს AI ნაკლებად სუბიექტური.

საბოლოოდ, მთავარი რეკომენდაციაა: ამ ეტაპზე ადამიანები არ უნდა დაეყრდნონ AI-ს, როგორც ადამიანური ურთიერთობების შემცვლელს, განსაკუთრებით პირადი და ემოციური გადაწყვეტილებების მიღებისას.

www.marketer.ge