Divos savstarpēji nesaistītos pētījumos noskaidrots, ka MI rīku piekoptā glaimošana un piekrišana nodara lietotājiem vairāk ļauna nekā laba. Masačūsetsas Tehnoloģiju institūta un Stenforda Universitātes veiktie pētījumi atklāja, ka tādi MI asistenti kā ChatGPT, Claude un Google Gemini par 49% biežāk piekrīt lietotāja viedoklim un stiprina viņa maldus, liekot domāt, ka viņš izvēlējies pareizu rīcību.
Pētnieki slavēšanu novēroja pat tad, kad apzināti uzdeva jautājumus vai aprakstīja situācijas, kurās viņu uzskati vai rīcība bija nepareiza, kaitīga, maldinoša vai neētiska. Piemēram, par dažādām sazvērestības teorijām. Turklāt MI pat sameklēja «pierādījumus», kas stiprināja lietotāju uzskatus, lai gan tie absolūti nesakrita ar dominējošo zinātnisko viedokli. Šādas sarunas ar «labāko draugu» pamatīgi ietekmē mentāli nestabilāko cilvēku domāšanu. Stenforda Universitātes pētnieki žurnālā Science publicētajā ziņojumā uzsvēruši, ka šis pašiznīcinošais cikls noved pie tā, ka tērzēšanas robotu lietotāji kļūst pārliecinātāki par savu viedokli un nevēlas pieņemt līdzcilvēku iebildumus. Ja šim sarunbotu spēcinātajam viedoklim nepiekrīt tuvi, seni draugi, cilvēki drīzāk saraus saites ar viņiem nekā mainīs viedokli, atvainosies un uzņemsies atbildību par kaitīgu uzvedību.

