Изкуственият интелект е непоследователен при обработката на въпроси, свързани със самоубийства, показва проучване
Проучването, публикувано в специализираното издание "Псайкиатрик Сървисис" (Psychiatric Services) от Американската психиатрична асоциация, установи необходимостта от "по-нататъшно усъвършенстване" на ChatGPT на OpenAI, Gemini на Google и Claude на Anthropic. Публикацията съвпадна с деня, в който родителите на 16-годишния американец Адам Рейн заведоха дело срещу OpenAI и нейния главен изпълнителен директор Сам Алтмън, твърдейки, че ChatGPT е подтикнал момчето от Калифорния да планира и да отнеме живота си по-рано тази година.
Изследването, проведено от американската корпорация РАНД (RAND Corporation) и финансирано от Националния институт за психично здраве в САЩ, повдига тревога относно това как все повече хора, включително деца, разчитат на чатботове с изкуствен интелект за подкрепа на психичното си здраве, и се стреми да определи критерии за това как компаниите да отговарят на тези въпроси. "Нуждаем се от някои предпазни мерки", каза водещият автор на проучването Райън Макбейн, старши изследовател в корпорацията РАНД. "Едно от неясните неща относно чатботовете е дали те предоставят лечение, съвети или просто правят компания. Това е нещо като сива зона", каза Макбейн, който е и преподавател в медицинския факултет на Харвардския университет. "Разговори, които могат да започнат като нещо безобидно и добронамерено, могат да се развият в различни посоки", добави той.
От Anthropic обявиха, че ще разгледат проучването. От Google не отговориха на запитването за коментар. От OpenAI заявиха, че разработват инструменти, които биха могли по-добре да откриват кога някой изпитва психически или емоционален дистрес. Компанията също така заяви, че е "дълбоко натъжена от кончината на г-н Рейн и нашите мисли са с неговото семейство".