Studija: toplina chatbotova podiže poverenje i rizik od prevelikog oslanjanja
The Register prenosi nalaze studije o tome kako ljudi doživljavaju velike jezičke modele, zasnovane na više od 2.000 interakcija sa 115 učesnika. Istraživači su menjali toplinu, stručnost i empatiju u načinu na koji chatbot odgovara, kako bi videli šta najviše utiče na poverenje i utisak ljudskosti. Pokazalo se da toplina najjače utiče na antropomorfizam, bliskost, korisnost i poverenje, dok stručnost više utiče na osećaj da je sistem koristan nego na to da deluje ljudski. Studija takođe navodi da razgovori o ličnim i subjektivnim temama dodatno pojačavaju osećaj povezanosti sa modelom.
Najveći problem ovde nije to što model zvuči prijatno, već što korisnik zbog toga lakše zaboravlja da razgovara sa sistemom koji može da bude vrlo ubedljiv i vrlo pogrešan u isto vreme. Kada se toplina i privid razumevanja spoje sa samouverenim odgovorima, raste prostor za preterano poverenje, manipulaciju i loše odluke.
- Ne mešati prijatan stil razgovora sa stvarnom tačnošću odgovora
- Tražiti proveru činjenica kada AI daje savete o važnim ličnim ili poslovnim pitanjima
- Posebno oprezno koristiti chatbotove za teme koje lako stvaraju osećaj bliskosti i poverenja
- U obukama korisnika objasniti da toplina modela može da pojača utisak kompetentnosti bez stvarnog osnova
- Kod AI alata meriti kvalitet po proverljivosti i pouzdanosti, a ne po tome koliko deluju ljudski