Съветът възнамерява да излезе с оценка дали решението на социалната мрежа бежанците, мигрантите, имигрантите и кандидатите за убежище да бъдат обект на защита в притежаваните от компанията социални мрежи само от най-грубите и остри нападки е адекватно и дали то отговаря на политиката за противодействие на насаждането на омраза.
Надзорният орган е финансиран от компанията, но действа самостоятелно от нея. След като събере мнения под формата на публични коментари, тя може да отправи препоръки към "Мета", които обаче не са правно обвързващи.
Първият от поставените за обществено обсъждане случаи е от Фейсбук страницата на полска крайнодясна партия, поместила през май мем, в който е използвано название на чернокожите хора, смятано от мнозина в Полша за обидно и унизително, посочва Съветът.
Публикацията има над 150 000 преглеждания, споделена е повече от 400 пъти, събрала е над 250 коментара под себе си и е докладвана 15 пъти от потребители за възможно насаждане на омраза; Фейсбук обаче решава да я остави след направена проверка по случая от "Мета".
Вторият случай е от германска Фейсбук страница през юни, когато на нея е качена снимка с руса, синеока жена, която прави с ръка жест за "Стоп". Публикацията е придружена от текст, който гласи, че хората трябва да спрат да идват в Германия, тъй като вече няма нужда от "специалисти по групови изнасилвания".
"Мета" и тук решава да остави изображението след направена проверка.
След като Надзорният съвет повдига въпроса за двата случая, експертите в "Мета" ги подложили на повторен анализ, след който потвърдили първоначалното решение.
"Тези знакови случаи от Германия и Полша ще ни помогнат да решим дали "Мета" не трябва да направи повече и дали изобщо прави достатъчно да приоритизира критично важен въпрос като този, който засяга толкова много хора по света", каза председателят на Съвета и бивш премиер на Дания Хеле Торнинг-Шмит.