най-четени
eксклузивни анализи
пийпълметрични данни
детайлни селекции
помагате на една нова медиа
Агентите с изкуствен интелект стават все по-популярни за редица ежедневни задачи и затова е важно да се отчита влиянието им върху хората. Скорошно проучване хвърля светлина върху опасностите от взаимодействието с "подмазвачески" модели на изкуствен интелект, тъй като те рискуват да създадат ехо-камери, които са склонни да потвърдят предварително съществуващите вярвания на хората. Проучването е съвместно прoведено от автори от пет университета (Нюйоркски университет, Автономен университет на Барселона, Университет Карнеги Мелън, Университет в Торонто, Норвежко училище по икономика) и установява, че тези ласкателни модели могат да засилят поляризацията и свръхувереността на хората.
Проучването се основава на три експеримента с над 3000 американски участници, включващи четири политически теми – контрол върху оръжията, имиграция, аборти и здравеопазване – и четири големи езикови модела: GPT-4o, GPT-5, Gemini и Claude. На тези модели са дадени инструкции (промптове) за взаимодействие с участниците в проучването в рамките на трите експеримента, но никой от участниците в проучването не е видял самите промптове, предоставени от изследователите.
Някои промптове са помолили „подмазващия се“ изкуствен интелект „ентусиазирано да потвърди“ вярванията на потребителя по предварително определените теми, докато други сценарии са помолили „неприятен“ изкуствен интелект да оспори тези вярвания и да накара потребителя да бъде отворен към други гледни точки. Има случаи, в които изкуственият интелект е помолен да представи факти и доказателства в подкрепа или против гледната точка на даден човек. Има и изкуствен интелект, на който не са дадени конкретни инструкции за разговора. В контролен експеримент изкуственият интелект и потребителят обсъждат предимствата на притежаването на котки в сравнение с кучета. Във всеки сценарий изкуственият интелект е ограничен до четири отговора.
Не е изненадващо, че хората се радват да използват чатботове, които са по-приятни и „подмазващи се“ от тези, които не са. Според авторите, „Тези резултати показват, че предпочитанието на хората към подмазване може да създаде риск от създаване на „ехо камери“ на изкуствения интелект, които увеличават поляризацията и намаляват излагането на противоположни гледни точки.“
Участниците смятат „неприятния“ чатбот за силно пристрастен, докато „подмазващия се“ изкуствен интелект виждат като безпристрастен, а в действителност и двамата са пристрастни. Хората са особено зле в разпознаването на пристрастията, присъстващи в системите с изкуствен интелект, които са съгласни с тях, защото приемат, че техните възгледи са обективни и безкритично приемат доказателства, които потвърждават тези убеждения.
„Подмазващите се“ чатботове са възприемани като по-топли и по-компетентни от чатбота в контролната група и „неприятния“ чатбот. Неинструктираният AI е възприеман като също толкова компетентен, но по-малко топъл от приятния AI. „Подмазващият се“ AI може също да създаде „ефект на ореол“, карайки потребителите да мислят, че тъй като чатботът е положителен в едно измерение, той винаги е положителен.
В доклада се посочва: „Търговските компании с AI могат да създават „подмазващи се“ модели, защото имат бизнес стимул да създават ангажиращи продукти, които хората използват и за които плащат.“
Марките обаче може да имат различни мотиви. Walmart и Target са само два от най-новите търговци на дребно, които използват технологията за ежедневни задачи, като например създаване на това, което според тях ще бъде по-добро пазаруване. Тези агенти могат да помогнат на клиентите например да намерят точно правилния подарък или да предскажат какво биха искали от един месец до следващия.
Макар че това може да звучи доста безобидно на пръв поглед, не е ясно как ще се развива технологията, когато стане по-сложна и поглъщаща. Изследването посочва някои възможни рискове, за които маркетолозите и бизнес лидерите трябва да са наясно.
„Въпреки потенциала на изкуствения интелект да се използва за „търсене на истината“, нашата работа предполага, че хората може да предпочитат да използват изкуствен интелект, за да събират доказателства в подкрепа на своите вече съществуващи убеждения“ - казват авторите. Те предлагат „насърчаване на отвореност и интелектуално смирение“ като качества, които биха могли да помогнат за насърчаване на възприемчивостта към непредубедените чатботове. Това, разбира се, оставя без отговор следния важен въпрос: Кой би бил отговорен за насърчаването на тези качества у хората, в момент когато светът става все по-поляризиран?