Изкуственият интелект избира приятелите си по същия начин, както хората, установиха учени


Изкуственият интелект (ИИ) в никакъв случай не е просто рационално „мислеща машина“ - напротив: „ЧатДжиПиТи“, „Джемини“ и други ИИ системи проявяват много типични човешки характеристики, пишат от Scinexx.de, позовавайки се на изследване, публикувано на портала PNAS Nexus.
ИИ демонстрира креативност, може да мами, лъже и манипулира потребителите си. Някои системи с изкуствен интелект дори вече отговарят на критериите за свободна воля. В същото време много ИИ модели са изненадващо иновативни и дори развиват предвестници на социално общуване помежду си. Но какво можем да кажем за социалното поведение на „ЧатДжиПиТи“, „Джемини“, „ДийпСийк“ и други? Дали тези модели се държат подобно на нас, хората, в социалните мрежи и при осъществяване на нови контакти?
„Разбирането как големите езикови модели (LLM) се държат в социална среда е от решаващо значение, за да можем да сме сигурни, че действат в съответствие с нашите очаквания и ценности“, обясняват Мариос Папахристу от Държавния университет на Аризона и Юан Юан от Калифорнийския университет в Дейвис.
За да тестват това, изследователите създадоха изкуствени социални мрежи с 200 симулирани потребители под формата на мрежови възли. След това те помолили четири различни, приблизително еднакво големи модела на ИИ – GPT 3.5, GPT 4 mini, Llama-3 и Claude 3.5 – да установят нови „приятелства“ в тези виртуални мрежи.
В хода на своите тестове Папахристу и Юан променяли информацията, която моделите с изкуствен интелект получавали за мрежовите възли, както и за предполагаемия контекст - например дали става въпрос за частна мрежа от приятелства или чисто професионална корпоративна мрежа.
Резултатът бил, че почти във всички ситуации моделите с изкуствен интелект показвали поведение, поразително подобно на това при хората. ИИ моделите използвали очевидно същите критерии като нас, за да разберат, кого да изберат за „приятел“ или с кого да се свържат в социална мрежа. „LLM не само възпроизвеждат нашите идеи, но го правят на толкова високо ниво, че поведението им е трудно различимо от нашето“, посочват изследователите.
По-конкретно, проучването разкри, че системите с ИИ предпочитат контакти, които вече са добре свързани - и следователно притежават висок социален статус в мрежата. Тази тенденция към така наречената преференциална връзка е по-изразена в по-новите модели с изкуствен интелект като GPT-4 mini, отколкото например в GPT 3.5. По този начин ИИ моделите проявяват същото поведение като хората в социалните мрежи.
Второто типично човешко поведение е така нареченото формиране на триади. „Това означава, че хората са по-склонни да формират връзки с приятели на техни приятели, отколкото с напълно непознати“, обясняват изследователите.
Третата характеристика на човешките взаимоотношения и социалните мрежи е социалната хомофилия - тоест склонността ни да се сприятеляваме с хора, които споделят сходни интереси, възгледи или хобита. Изследователите тестваха това в изкуствена мрежа, на която произволно дадоха различни места на пребиваване, хобита и любими цветове. И наистина, и тук моделите на изкуствения интелект са отразили човешкото поведение.
Според изследователите, тази „човешка страна“ в социалното поведение на системите с ИИ има някои предимства, но и определени недостатъци: „Тя може неволно да подсили социални явления като ехо камери, фиксирани йерархии или дезинформация“, предупреждава екипът. „От друга страна, това позволява на изкуствения интелект да създава реалистични симулации, които можем да използваме за тестване на контрамерки или да ни помогне да разработим по-справедливи информационни системи,“ допълват още учените, цитирани от Scinexx.de.