Coin Market Solution logo Coin Market Solution logo
Forklog 2022-09-29 15:54:50

Алгоритмы Facebook обвинили в «содействии» геноциду рохинджа в Мьянме

В 2017 году алгоритмы формирования контента Facebook «напрямую способствовали убийствам и другим зверствам», совершенным военными Мьянмы в отношении мусульманского меньшинства рохинджа. Об этом говорится в расследовании международной организации Amnesty International. В 74-страничном отчете правозащитники привели перечень нарушений прав рохинджа за последние пять лет на фоне систематических преследований и апартеида. С 2017 года геноцид унес жизни более 25 000 человек. По данным организации, Meta «существенно поспособствовала» этнической чистке в Мьянме, наживаясь на разногласиях и ненависти. «Массовое распространение сообщений, подстрекающих к жестокости и ограничению прав рохинджа, а также другого антигуманного контента, подлило масла в огонь давней дискриминации и существенно увеличило риск вспышки насилия», — говорится в отчете. В конце 2016 года Вооруженные силы Мьянмы начали серию репрессий в Ракхайне, где большая часть населения рохинджа жила в переполненных гетто. Были задокументированы многочисленные нарушения прав человека — избиения, убийства, изнасилования, произвольные аресты и принуждения к рабству. Также спутники зафиксировали кадры, где военные сжигают тысячи домов. Зверства, многие из которых совершали радикальные буддийские националисты, обострились в начале 2017 года и вызвали волну контратак повстанцев. Тогда Вооруженные силы страны начали так называемую «операцию по очистке» — кампанию геноцида, которая включала использование артиллерийского оружия, боевых вертолетов и противопехотных мин. Согласно отчету, социальные сети вроде Facebook помогали экстремистским националистам преследовать и дегуманизировать рохинджа за счет распространения огромного потока контента. «Раньше общественность следовала за своими религиозными лидерами, и когда те вместе с правительством начали делиться ненавистническими высказываниями на платформе, сознание людей изменилось», — цитирует Amnesty International школьного учителя рохинджа Мохамеда Аяса. По словам генерального секретаря правозащитной организации Аньес Калламар, еще до «обострения злодеяний» алгоритмы Facebook разжигали злобу к меньшинствам, что способствовало насилию в реальном мире. Пока военные Мьянмы совершали преступления против человечности, Meta извлекала выгоду из эхо-камеры ненависти, созданной ее токсичными алгоритмами, добавила она. Калламар также заявила, что компанию необходимо привлечь к ответственности и заставить возместить ущерб всем тем, кто пострадал от последствий ее безрассудных действий. В качестве одного из «бесчисленного множества» примеров по дегуманизации рохинджа алгоритмами соцсети Amnesty International выделила случай с постом Мин Аун Хлайна. В сентябре 2017 года военачальник заявил в Facebook, что «в Мьянме абсолютно нет расы рохинджа».   Техгигант заблокировал его аккаунт только через год. Директор по государственной политике для развивающихся рынков Meta в АТР Рафаэль Франкель заявил, что компания поддерживает усилия по привлечению военных к ответственности за их преступления против рохинджа. «С этой целью мы добровольно и законно предоставили данные Следственному механизму ООН по Мьянме и Гамбии, а также в настоящее время участвуем в процессе подачи жалоб в ОЭСР», — сказал он. Напомним, в ноябре 2021 года израильская армия развернула обширную систему распознавания лиц для отслеживания палестинцев на Западном берегу реки Иордан. В декабре 2020 года компания Alibaba признала, что разработала ИИ-технологию для выявления уйгурского меньшинства в Китае. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Leggi la dichiarazione di non responsabilità : Tutti i contenuti forniti nel nostro sito Web, i siti con collegamento ipertestuale, le applicazioni associate, i forum, i blog, gli account dei social media e altre piattaforme ("Sito") sono solo per le vostre informazioni generali, procurati da fonti di terze parti. Non rilasciamo alcuna garanzia di alcun tipo in relazione al nostro contenuto, incluso ma non limitato a accuratezza e aggiornamento. Nessuna parte del contenuto che forniamo costituisce consulenza finanziaria, consulenza legale o qualsiasi altra forma di consulenza intesa per la vostra specifica dipendenza per qualsiasi scopo. Qualsiasi uso o affidamento sui nostri contenuti è esclusivamente a proprio rischio e discrezione. Devi condurre la tua ricerca, rivedere, analizzare e verificare i nostri contenuti prima di fare affidamento su di essi. Il trading è un'attività altamente rischiosa che può portare a perdite importanti, pertanto si prega di consultare il proprio consulente finanziario prima di prendere qualsiasi decisione. Nessun contenuto sul nostro sito è pensato per essere una sollecitazione o un'offerta