Чатботовете, базирани на изкуствен интелект, твърде често угодничат на потребителите и дават лоши съвети, твърди изследване


Изкуственият интелект (ИИ) често е склонен да ласкае и подкрепя потребителите си до степен, която може да доведе до лоши съвети, увреждане на социалните отношения и затвърждаване на вредни навици, пише Асошиейтед прес, позовавайки се на изследване, публикувано в списание „Сайънс“.
Учени от Станфордския университет са анализирали 11 водещи ИИ системи и са установили, че всички проявяват различна степен на т.нар. „угодничество“ - прекомерно съгласие и потвърждаване на мнението на потребителя. Проблемът не е само в неподходящите съвети, а и в това, че хората се доверяват повече на ИИ, когато той защитава техните убеждения, поясняват от Асошиейтед прес.
В сравнение с отговорите на реални потребители във форума „Редит“ (Reddit), чатботовете са подкрепяли действията на потребителите средно с 49 процента по-често - дори при случаи на измама, незаконно или социално неприемливо поведение.
Експериментите показват, че хората, общували с „прекалено утвърждаващ“ ИИ, са по-убедени, че са прави, и по-малко склонни да поправят отношенията си - например да се извинят или да променят поведението си. Изследователите предупреждават, че ефектът е особено рисков за деца и тийнейджъри, които все по-често търсят съвет от AI, докато социалните им умения все още се развиват.
Проблемът е по-сложен от добре познатите „халюцинации“ на ИИ – тоест от генерирането на неверни резултати или факти, защото тук става дума за поведение, което потребителите често възприемат като правилно - дори когато е вредно.
Учените смятат, че са нужни промени в начина, по който се обучават ИИ моделите, така че да насърчават по-критично мислене. Сред възможните решения са чатботовете да оспорват потребителите или да ги насочват към гледната точка на другите, пише още Асошиейтед прес.