Британската полиция няма право да използва лицево разпознаване, реши съдът

Британската полиция няма право да използва лицево разпознаване, реши съдът

Британската полиция няма право да използва лицево разпознаване, реши съдът
Associated Press
Британската полиция няма право да използва технологии за лицево разпознаване в издирването на заподозрени, гласи съдебно решение, цитирано от агенция "Ройтерс". Според Апелативния съд на Англия и Уелс (най-висшата инстанция преди Върховния съд на Великобритания) тя нарушава неприкосновеността и защитата на данните.
Делото е заведено от гражданина на Кардиф Ед Бриджес срещу Полицията на Южен Уелс, задето лицето му е заснето без негово съгласие. От институцията заявиха, че няма да обжалват решението, но смятат внимателно да развиват и използват технологията. "Целият ѝ смисъл е да опази обществото в безопасност и да ни помогне в откриването на престъпници, да защити общността от опасни индивиди", гласи изявлението на полицията.
От молове на летища по света, лицевото разпознаване се използва все по-масово и това повдига въпроси за неприкосновеността и евентуална дискриминация. Критиците на технологията предупреждават, че тя е склонна към грешки, особено когато става въпрос за идентификация на етнически малцинства.
Полицията на Южен Уелс използва лицево разпознаване от 2017 г., сравнявайки лицата на минувачите на десетки локации с базата си данни за престъпници. Ако заподозрян за престъпление бъде идентифициран, той може да бъде спрян на място, докато неразпознатите лица не биват идентифицирани и данните им не се използват.
Според силите на реда благодарение на това са направени 61 ареста и връчвания на съдебни нареждания.
37-годишният ищец е завел делото, защото лицето му е било сканирано на два пъти - по време на протест и на пазаруване. В решението си Апелативният съд се съгласи с три от петте му аргумента - че полицията има прекалено широки правомощия; че няма ясни правила къде може тази технология да бъде използвана и кой може да бъде сложен в списъка за издирване.
Освен това институцията не е взела мерки, за да гарантира, че софтуерът не проявява грешки по отношение на расата или пола на заснетите лица. Няма и достатъчно добра оценка за работата с деликатни данни.