Автоматизираните системи за обслужване на клиенти стават все по-често срещани в индустриите. Инструменти като онлайн формуляри, чатботове и други цифрови интерфейси имат предимства както за компаниите, така и за клиентите.
Ново проучване показва, че удобството има и обратна страна: хората са склонни да мамят цифровите системи повече от 2 пъти по-често от живите събеседници. Говорим за заключенията и препоръките, които ще помогнат за постигане на по-честни отговори.
За да се проучи този проблем, бяха проведени два прости експеримента, които фино измерваха честността на поведението.
Първо, изследователят помоли участниците да хвърлят монета десет пъти и им каза, че в зависимост от резултатите ще получат парична награда. Някои съобщават за резултати чрез видеообаждане или чат, а други чрез онлайн формуляр или гласов бот. Те хвърляха монети без непознати и беше невъзможно да се провери честността на отделен участник.
Учените обаче успяха да оценят склонността към измама на група участници (тъй като по принцип само 50% от хвърлянията на монети трябва да са успешни).
Какво откриха?
- Средно, когато участниците докладват на човек, те казват, че са получили желания резултат в 54,5% от случаите, което се равнява на приблизително 9% процент на измами.
- За разлика от това, когато са докладвали резултата на машината, те са мамили в 22% от случаите.
С други думи, известна измама може да се очаква така или иначе, но участниците в експеримента, които са взаимодействали с цифровата система, са изневерявали повече от два пъти по-често, отколкото когато говорят с човек.
Освен това, когато общуват с машината, хората са били повече от 3 пъти по-склонни да прибегнат до откровена измама, казвайки, че 9 или 10 хвърляния са завършили с желания резултат.
Последващо проучване помогна да се определи, че основният психологически механизъм, водещ до този ефект, е нивото на тревожност на участниците относно личната им репутация. Тези, които съобщават резултатите си на машината, се чувстват много по-малко близки с изследователя и в резултат на това са много по-малко загрижени за личната си репутация, отколкото тези, които взаимодействат с човек.
По този начин изследователите предположиха, че може би като направят цифровата система по-човешка (например, използвайки глас, а не текстов интерфейс), потребителите ще бъдат по-загрижени за репутацията си и ще бъде по-малко вероятно да лъжат. Те обаче установили, че участниците в експеримента все пак изневеряват също толкова често.
Вероятно, ако хората знаят, че взаимодействат с машина, придаването й на човешки черти е малко вероятно да има голяма разлика.
Със сигурност е възможно разработването на подобни на човек системи за изкуствен интелект да направи тази стратегия по-ефективна в бъдеще. Но засега е ясно, че цифровите инструменти правят измамите много по-често срещани и просто няма очевидно бързо решение.
Решението на проблема беше открито по време на втория експеримент. Докато нечестността не може да бъде елиминирана, възможно е да се предвиди кой е по-вероятно да излъже робот и след това да подтикне тази конкретна група потребители да използват човешкия канал за комуникация.
Изследователите първо оцениха общата склонност на участниците към измама, като ги помолиха да хвърлят монета десет пъти и да докладват резултатите си чрез онлайн формуляр, а след това ги категоризираха като „вероятно мамят“ и „вероятно честни“. В следващата част от експеримента субектите бяха помолени да изберат как да докладват резултатите от хвърляне на монета: директно на човек или чрез онлайн формуляр.
Като цяло, около половината от участниците предпочитат лицето, а останалите – онлайн формуляра, като „вероятно изневеряват“ е значително по-вероятно да изберат онлайн формуляра, докато „вероятно честните“ избират да общуват с друг човек.
Това предполага, че хората, които лъжат по собствена инициатива, се опитват да избягват ситуации, в които трябва да лъжат човек, а не машина. Вероятно това се дължи на разбирането (понякога несъзнателно), че би било по-неприятно да се измами човек.
По този начин, ако нечестните хора са склонни сами да избират цифрови комуникационни канали, това позволява по-добро откриване на измама и нейното минимизиране. Един от начините за по-добро идентифициране на тези клиенти е събирането на данни за предпочитания от тях канал за комуникация.
Разбира се, клиентите могат да се опитат да подмамят системата да говори с истински агент, но това наистина е печелившо, тъй като според проучването е много по-вероятно те да действат честно, когато взаимодействат с човек.
В крайна сметка няма лек за цифровата нечестност. В крайна сметка изглежда, че да заблудиш робот не е толкова лошо, колкото да излъжеш в лицето на истински човек.
Хората са програмирани да пазят репутацията си и машините по принцип не представляват такава заплаха за нея, както хората. Като разбират защо клиентите са повече или по-малко склонни да лъжат, организациите могат да създадат системи, които идентифицират вероятни случаи на измама и в идеалния случай насърчават искреността.