Google использует сомнительную тактику для распознавания людей с «темной кожей»

0

Google использует сомнительную тактику для распознавания людей с «темной кожей»

Google использует сомнительную тактику для распознавания людей с «темной кожей»

Для этого компания профинансировала проект по распознаванию лиц, направленный на цветных людей с сомнительной тактикой, сообщили New York Daily News из многочисленных источников, непосредственно знакомых с проектом.

Целью компании является создание разнообразной базы данных, якобы для того, чтобы такие продукты, как биометрические характеристики смартфона Pixel 4, не страдали от расовой предвзятости.

Как известно, в прошлом технология распознавания лиц затрудняла идентификацию людей с более темной кожей.

Google хочет избежать этой ловушки, поэтому он заплатил столько, чтобы нанятые временные сотрудники отправлялись собирать снимки лица у разных людей на улице, используя подарочные карты на $5 в качестве стимула.

Представитель Google признал цель сбора данных.

“Мы регулярно проводим волонтерские исследования. Для недавних исследований, включающих сбор образцов лица для машинного обучения, существуют две цели. Во-первых, мы хотим встроить справедливость в функцию разблокировки лица Pixel 4. Крайне важно, чтобы у нас был разнообразный образец, который является важной частью создания инклюзивного продукта”, – сказал пресс-секретарь.

“И во-вторых, охрана. Разблокировка лица Pixel 4 станет новой мощной мерой безопасности, и мы хотим быть уверены, что она защитит как можно более широкий круг людей. “

Но несколько человек, которые работали над проектом, в длительных интервью говорили в газете Daily News и говорили, что ненасытный аппетит Google к данным привел к сомнительным и вводящим в заблуждение методам.

По их словам, команды были направлены в Атланту для работы с бездомными, ничего не подозревая студентами в университетских городках вокруг США и посетителями торжеств в рамках программы BET Awards в Лос-Анджелесе, среди прочих мест.

Работники, известные как Google TVC (аббревиатура для указания временных сотрудников, поставщиков или подрядчиков), сообщили Daily News, что им платят через стороннее агентство занятости под названием Randstad.

Они сказали, что руководители проекта Randstad специально велели телекомпаниям преследовать цветных людей, скрывать тот факт, что лица людей записываются, и даже лгать, чтобы максимизировать сбор данных.

Некоторым было сказано собрать данные о лице, охарактеризовав скан как “самоигру”, похожую на Snapchat, сказали они.

Один сказал, что рабочим сказали: “Просто поиграй с телефоном пару минут и получи подарочную карту” и: “У нас есть новое приложение, попробуй и получи 5 долларов”.

Источники сообщили, что руководитель “Рэндстада” дал им указание не говорить субъектам о том, что их записывают.

“Нам сказали не говорить (людям), что это видео, даже если на экране будет сказано, что видео было снято”, – сказал источник, добавив, что видео каждого пользователя хранится под профилем каждого ТВЦ и периодически просматривается на концертах.

Если человек посмотрит на экран после выполнения задания и скажет: “О, это было снято на видео?”. нам было приказано сказать: “О, это не совсем так”, – сказал источник.

По словам наемных работников, телекомпаниям было предложено поторопить субъектов опроса и заключить соглашение о согласии и уйти, если люди начнут подозревать друг друга.

“Одним из дней обучения было создание словарного запаса, который максимально отвлекал бы пользователя от актуальной задачи”, – рассказал один из бывших сотрудников газеты Daily News.

Фраза “мини-игра” много раз звучала, – сказал бывший сотрудник, работавший в Лос-Анджелесе.

“В основном, это была большая сенсорная перегрузка человека, заставлявшая его делать это как можно быстрее и отвлекать как можно больше людей, поэтому у них даже не было времени понять, что происходит”, – сказал он.

“В основном отвлеките их и говорите что угодно. Давай, просто нажми на следующую кнопку. Даже не волнуйся об этом. Типа того. Действительно, просто двигайся дальше. Пошли. Нажмите все последующие кнопки”, – сказал бывший временный сотрудник, щелкнув пальцами для акцентирования внимания.

Google уже признал, что посылал людей на добровольное сканирование в обмен на подарочные карты на 5 долларов США.

ZDNet сообщила в июле, что к человеку обратился кто-то в Нью-Йорке и попросил продать его лицо Google за 5 долларов. Человек сказал, что скан будет использован для “улучшения разблокировки телефона следующего поколения для распознавания лиц”.

Представитель Google позже сообщил TheVerge, что компания собирает данные с помощью “полевых исследований” для создания функции распознавания лиц “с надежной безопасностью и производительностью”.

В интервью газете Daily News люди, которые работали над проектом из Лос-Анджелеса, сказали, что Randstad поощряет их думать о себе как о потенциальных постоянных сотрудниках Google, если они достигнут своей ежедневной квоты 3D сканирования лица.

Пока “Рэндстад” руководил повседневными операциями, наниматели сказали, что у них есть удостоверения личности, чтобы попасть в штаб-квартиру Google на Венецианском пляже.

Между тем менеджеры Google регулярно общались по конференц-связи и участвовали во многих аспектах сбора и анализа данных, в том числе в работе по поиску “более темных тонов кожи”, сообщили источники.

Один бывший сотрудник сказал, что Рэндстад послал команду в Атланту “специально” для работы с чернокожими, включая бездомных чернокожих людей.

“Они сказали нацеливаться на бездомных, потому что они реже всего что-то говорят СМИ”, – сказал бывший сотрудник. “Бездомные вообще не знали, что происходит.”

Менеджер Google, который часто общался по конференц-связи с командами, знал об этой поездке, хотя его не слышали, когда ТВЦ велели преследовать бездомных, сказал бывший наемный работник газеты Daily News.

Менеджер говорил с телекомпаниями, направляющимися в Атланту, и подчеркнул, что компания “пытается нацелиться на людей с более темной кожей”, сказал бывший наемный работник.

Другой бывший сотрудник TVC сказал, что членам команды в Калифорнии было специально сказано, что они могут заманить в ловушку испытуемых, упомянув закон штата, согласно которому подарочные карты стоимостью менее 10 долларов могут быть обменены на наличные.

Они даже сказали нам: “Если они не любят кофе или что-то в этом роде, вы можете сказать бездомным, что можете обменять подарочную карту на 5 долларов наличными”, – сказал бывший член команды.

“Они прекрасно знали, как можно стимулировать человека, и очень хорошо разбирались в контексте этого человека, чтобы сделать его почти неотразимым”.

Бывший ТВЦ сказал, что кампусы колледжа считаются “золотой жилой шахтой или единорогом”, потому что молодые студенты обычно живут в условиях ограниченного бюджета и реагируют на подарочные карты.

28 августа корреспондент Daily News встретил двух телекомпаний, которые собирали данные в учебной комнате в главной библиотеке Университета штата Калифорния, Лонг-Бич.

Одетые в рюкзаки и похожие на самих студентов, они ходили от стола к столу, предлагая подарочные карты на $5 Старбакс в обмен на 3-D сканы лица, которые несколько студентов позже сказали, что не понимают, что продают.

“Повернись лицом в круг. Один из них, одетый в сине-белую футболку, сказал студентке, которая провела меньше двух минут с телефоном, прежде чем получить подарочную карту стоимостью 5 долларов США.

Читать еще:  Cyberpunk 2077: Косплей конкурс объявили CD Project RED

“О, Боже мой, у них мое лицо”, – сказала 18-летняя новичка Дженил Хо, когда ее спросили, знала ли она, что ее лицо сканируют.

“Я знаю, что он сказал “Андроид”. Я ничего не слышал о Гугле”, – заявила она.

“Они сказали, что хотят, чтобы мы протестировали новый телефон, Android. Я вставил свою электронную почту. Мой парень сказал мне сделать все это очень быстро. Он продолжал говорить: “Нажимай следующий и загрузи. Следующий и загружаем. Я думал, они студенты. Мы здесь новенькие и пытаемся подружиться”, – сказала она.

“Должен ли я сменить лицо?” Хо спросила, как она нервно смеялась. “Я только что услышал Старбакс и сказал: “Хорошо. “

Другая студентка сказала, что тоже ничего не слышала о Гугле.

Они только что сказали: “Хотите ли вы войти в опрос? Мы дадим тебе подарочную карту Старбакс”, – сказала Келли Ям, 18 лет.

“Мы должны были следовать за точкой носом. Я сделал это, держа телефон у себя перед носом. Может быть, в следующий раз я буду в курсе. Больше всего меня соблазнила подарочная карта”, – сказала она.

“Они сказали, что это был опрос, и мы думали, что они студенты. Я даже не думаю, что понял, что была форма согласия”, – сказала она.

Другие студенты библиотеки рассказали, что вспоминали людей, которые в конце весеннего семестра ходили с большим телефоном, раздавая подарочные карты Starbucks на $5 в одном и том же месте.

Деон Уильямс, чернокожий студент, сказал, что парень с телефоном сделал линию соприкосновения для своей учебной группы где-то около мая.

“Я смотрел на него, когда он подошел ко мне, типа, кто этот парень? Он был очень близок, – сказал Уильямс, 23 года, корреспонденту “Дейли Ньюз”.

“Он спросил, не хочу ли я получить бесплатную карточку за 5 долларов, анализируя данные. Они не сказали, что это было сканирование. Я как раз думал о Старбаксах. Я отправил фальшивое письмо”, – сказал он.

“Мы спросили, на кого они работали до того, как кто-то сделал это. Они сказали, что это что-то связанное с Google, – вспоминает он.

Быть “очень напористым” – это часть работы, ТВЦ все еще участвует в проекте в прошлом месяце, сказал он.

“Я чувствую, что они хотят, чтобы мы охотились на слабых”, – сказал сотрудник.

Частично спешка была направлена на то, чтобы удержать людей от чтения формы согласия, которая должна быть нажата для подсчета результатов сканирования, сообщили в TVC.

Изображение соглашения, предоставленное Daily News, как оказалось, предоставило Google большую свободу действий при работе с личными данными.

В нем говорится, что Google может хранить сканы “столько, сколько потребуется для достижения целей, которые, как ожидается, составят около пяти лет”.

Это также дало Google право “агрегировать исследовательские данные” таким образом, чтобы субъекты исследования оставались анонимными, и “не существует никаких ограничений в отношении того, как долго и каким образом Google может хранить, использовать или делиться агрегированными данными”.

Пожалуй, наиболее тревожным является то, что соглашение о согласии дает Google право “хранить, использовать или делиться неличными идентифицирующими или агрегированными данными без ограничений для любых целей”, и говорит, что данные могут обрабатываться “за пределами страны”, включая места, “где у вас может быть меньше прав”.

Один из бывших телекомпаний назвал формуляр согласия особенно “тревожной”.

“Это может быть общекорпоративный набор данных, который может быть использован для чего угодно”, – сказал бывший сотрудник.

Джейкоб Сноу (Jacob Snow), адвокат ACLU Северной Калифорнии по вопросам технологий и гражданских свобод, заявил, что тактика проекта, раскрытая газете Daily News, вызывает обеспокоенность.

Он сказал, что новый Калифорнийский закон о защите прав потребителей, который вступит в силу в следующем году, потребует от предприятий, собирающих данные, четкого информирования людей о целях, для которых эти данные будут использоваться.

В то же время, по его словам, предприятия должны соблюдать положения раздела 5 Закона о Федеральной комиссии по торговле, который запрещает вводить в заблуждение на рынке.

“Конфиденциальность является фундаментальным правом, а не привилегией для людей, которые могут себе это позволить. Google должен знать, что не быть злым означает не собирать информацию у наиболее уязвимых слоев общества. Идея о том, что люди действительно согласились, в ходе процесса, который, по-видимому, был поспешным и вводящим в заблуждение, является чистой выдумкой”, – сказал Сноу в интервью газете Daily News.

Он назвал это “сложным юридическим вопросом”, когда его спросили, можно ли привлечь Google к ответственности за поведение, о котором сообщалось в газете Daily News.

“Не исключено, что действия подрядчика могут быть вменены в вину компании, заключившей договор с этим субъектом права”, – сказал он.

Перечень конкретных вопросов, отправленных в Google о ее методах, остался без ответа, но компания признала, что ей необходимо обучить свою систему распознавания лиц работе со всеми типами черт лица и что она расследует заявления Daily News о сомнительной тактике.

Компания “Рэндстад” подтвердила, что она получила письмо по электронной почте с просьбой представить комментарии, но не ответила к установленному сроку.

Как в Gfycat решали проблему распознавания лиц азиатов и афроамериканцев

Гуманно ли ставить такой вопрос? Последнее исследование показало, что расовые различия учитываются разработчиками нейросетей при распознавании лиц. Формально же считается, что все люди равны и предвзятости в этом вопросе следует избегать, если не хочешь слышать в свой адрес обвинения в расизме.

Программный инженер компании Gfycat Генри Ган рассказал, что прошлым летом ПО с 90% точностью идентифицировало большинство его коллег, но столкнулась с трудностями при распознавании лиц одной группы.

“Лица некоторых наших азиатских сотрудников перепутались. Это было странно, потому что остальных программа опознала верно”, — говорит Ган.

У больших компаний возникли сходные проблемы. В Microsoft и IBM утверждают, что лица белых мужчин определяются с 95% точностью, а лица темнокожих женщин — в 10 раз хуже. Служба фотографий Google не реагирует на запросы “горилла”, “шимпанзе” или “обезьяна”. Таким образом, исключается повторение конфуза 2015 года, когда поисковик ошибочно принимал темнокожих людей на фото за обезьян. Единого стандарта выявления и устранения предвзятости в сетях ИИ еще не сложилось.

“Многие компании сейчас серьезно относятся к этим вещам, но учебник по их исправлению еще не написан”, — говорит Мередит Уиттакер, соруководитель AI Now.

Gfycat занялись распознаванием лиц, чтобы создать нейросеть, которая позволила бы людям быстро находить нужные GIFки для ответов в мессенджерах. Поисковая система компании анализирует около 50 миллионов GIF-файлов — от котиков до лиц президентов. С помощью распознавания лиц разработчики упростили поиск известных личностей от политиков до “звезд”.

Читать еще:  PlayerUnknown’s Battlegrounds — Создатель хочет строить миры на глобальном уровне

“Азиатский детектор”

В Gfycat использовали нейросеть для распознавания лиц с открытым исходным кодом, основанную на исследованиях Microsoft. Разработчики обучили ее на миллионах фотографий из коллекции университетов штата Иллинойс и Оксфорда. Но нейросеть не смогла различить азиатских знаменитостей, таких как Constance Wu и Lucy Liu, и плохо различала людей с темной кожей.

Сначала Ган решал проблему путем обучения нейросети на большем числе примеров “проблемных” лиц. Увеличение числа фото чернокожих и азиатских знаменитостей в датасете помогло лишь частично.

Значительного прогресса удалось добиться благодаря “азиатскому детектору”. Обнаружив азиатское лицо, нейросеть переходила в режим повышенной чувствительности. По словам Гана, это оказался единственный способ заставить программу отличать азиатов друг от друга. Он утверждает, что нейросеть на 98% точна при опознавании белых людей, и на 93% при работе с лицами азиатов. Намеренный поиск расовых различий отчасти выглядит странным способом борьбы с предвзятостью. Несмотря на это, идею поддержал ряд ученых и компаний.

В декабре Google опубликовал отчет об успехах в точности распознавания улыбок при помощи определения пола и расовой группы человека на фото. В отчете также говорится, что нейросети не должны использоваться для определения расы, и что использовать только две гендерные и четыре расовые категории недостаточно.

Некоторые исследователи предложили сформировать отраслевые стандарты прозрачности и борьбы с предвзятостью нейросетей. Так, Эрик Лернед-Миллер, профессор Массачусетского университета, предлагает обязать организации, которые занимаются распознаванием лиц, раскрывать точность нейросетей при определении расы и пола человека. В число этих организаций входят Facebook и ФБР.

У алгоритмов компьютерного зрения обнаружили проблемы с темной кожей

Benjamin Wilson et al. / arXiv, 2019

Американские разработчики проверили работу восьми алгоритмов компьютерного зрения, используемых для определения объектов на изображениях, и выяснили, что они хуже распознают людей с темной кожей: в среднем на пять процентов. Препринт статьи опубликован на arXiv.org.

То, что нейросети и прочие алгоритмы машинного обучения отличаются предвзятостью, демонстрируют довольно часто. Причем это вина не разработчиков, а тех датасетов, которые они используют для обучения и тестирования своих моделей: они не отличаются разнообразием и, к примеру, в них часто больше светлокожих людей, чем темнокожих.

Такая проблема заметна при использовании алгоритма на практике: например, стоит вспомнить историю с алгоритмами Google, которые распознали двух темнокожих людей как горилл. При этом один случай, пусть и может вызвать скандал, не означает, что алгоритм всегда ошибается: несмотря на высокую точность работы многих нейросетей, они в принципе не могут быть безупречны — всегда остается шанс на погрешность. Предвзятость алгоритмов, поэтому, необходимо оценивать эмпирически, чтобы точно исключить влияние всех возможных побочных переменных.

Этим решили заняться исследователи из Технологического института Джорджии под руководством Бенджамина Уилсона (Benjamin Wilson). Они отобрали изображения пешеходов, которые используются для обучения алгоритмов компьютерного зрения, работающие, к примеру, в беспилотных автомобилях. Добровольцев попросили разметить людей на изображениях и присвоить им номер от 1 до 6 по шкале фототипов кожи Фитцпатрика.

Ученые выяснили, что все восемь алгоритмов хуже справляются с определением на изображениях пешеходов с более темной кожей (от 4 до 6 по шкале Фитцпатрика) — в среднем на пять процентов. При этом на разницу в точности не повлияло темное время суток или объекты, частично заслоняющие пешехода.

Разработчики считают, что причина плохого распознавания людей с более темной кожей может быть не только в том, что их недостаточно в выборке, но также и в том, что сам алгоритм может быть не настроен на то, что каких-то данных в обучающей выборке может быть недостаточно. В целом, проведенная работа показывает важность предварительного тестирования нейросетей и настройку их параметров в зависимости от выборки. Как отмечает в заголовке своей заметки MIT Technology Review, такая предвзятость может быть опасной в вопросах использования алгоритмов компьютерного зрения в беспилотных автомобилях: если система обнаруживает темнокожего человека с меньшей вероятностью, то она с большей вероятностью его собьет.

Один из способов бороться с предвзятостью подобных алгоритмов недавно предложили исследователи из Массачусетского технологического института: они добавили к сверточной нейросети нейросеть-автокодировщик, которая отмечает трудности распознавания отдельных особенностей в процессе работы и на основе этого регулирует обучающую выборку.

Google по сообщениям предназначался для бездомных с темной кожей, чтобы улучшить ИИ | Технологии

Отказы технологии распознавания лиц, когда дело доходит до точной идентификации цветных людей, были хорошо задокументированы и подвергнуты значительной критике. Но попытка Google улучшить свои алгоритмы распознавания лиц путем сбора данных от людей с темной кожей вызывает еще большую обеспокоенность по поводу этики сбора данных.

Google использует субподрядных работников для сбора сканов лица у населения в обмен на подарочные карты на 5 долларов, согласно отчету от Нью-Йорк Дейли Ньюс, Проект по сканированию лица был ранее сообщалось, но анонимные источники описали неэтичные и обманные практики в Daily News.

Согласно отчету, субподрядчики работали в штатной фирме Randstad, но работали под руководством менеджеров Google. Они были проинструктированы нацеливаться на людей с «более темными оттенками кожи» и на тех, кто с большей вероятностью будет соблазнен подарочной картой за 5 долларов, включая бездомных и студентов.

«Они сказали, что нацелены на бездомных, потому что они реже всего говорят что-либо СМИ», – сказал бывший подрядчик Daily News. «Бездомные вообще не знали, что происходит».

«Я чувствую, что они хотели, чтобы мы охотились на слабых», – сказал другой подрядчик Daily News.

Рандстад не сразу ответил на запрос о комментарии. Google защитил проект, но сказал, что расследует обвинения в нарушениях.

Подрядчики также описали использование обманной тактики, чтобы убедить испытуемых согласиться на сканирование лица, в том числе неверное определение сканирования лица как «селфи-игры» или «опроса», принуждение людей к подписанию формы согласия, не читая ее, и сокрытие того факта, что По телефону испытуемым передавали «поиграть», снимали видео их лиц.

«Мы серьезно относимся к этим претензиям и расследуем их», – заявил представитель Google. «Утверждения относительно правдивости и согласия нарушают наши требования к волонтерским исследованиям и обучению, которое мы предоставили».

Представитель добавил, что «коллекция образцов лица для обучения машинному обучению» была предназначена для того, чтобы «встроить справедливость» в «функцию разблокировки лица» для нового телефона компании, Pixel 4.

«Очень важно, чтобы у нас был разнообразный образец, который является важной частью построения инклюзивного продукта», – сказал представитель, добавив, что функция разблокировки лица предоставит пользователям «мощную новую меру безопасности».

Читать еще:  Sea of Solitude: Кей превратится в монстра 5 июля 2019 года

Но проект вызвал резкое осуждение со стороны сторонников цифровых гражданских прав и расовой справедливости.

Противоречие затрагивает сложные вопросы об алгоритмическом смещении и конфиденциальности данных. Лучше ли улучшить распознавание лица для людей всех цветов кожи или полностью запретить технологию, как это сделали несколько городов США в этом году? И сколько следует компенсировать пользователям за предоставление таким личным данным таким компаниям, как Google?

«Хотя исследования ясно показывают, что система распознавания лиц непропорционально неправильно распознает черные и коричневые лица, цель не должна состоять в том, чтобы повысить точность этой чрезвычайно агрессивной системы», – сказал Малкиа Сирил, основатель и исполнительный директор MediaJustice, национальной организации расовой юстиции, развивающей средства массовой информации. и технологии права. «В контексте существующих расовых предрассудков в уголовно-правовой системе и в борьбе с терроризмом никто не должен ставить перед собой цель облегчить использование технологии против цветных людей, особенно черных, AMEMSA [арабские, ближневосточные, мусульманские и южные Азиатские] общины и незарегистрированные люди ».

«Это абсолютно недопустимое поведение со стороны подрядчика Google. Вот почему то, как сегодня строится ИИ, должно измениться ». сказал Джейк Сноу, адвокат из ACLU Северной Калифорнии. «Ответом на алгоритмический уклон является не нацеливание на наиболее уязвимых».

«Будь то расизм, потому что он точный или потому что он неточный, распознавание лиц и биометрические инструменты в целом способствуют расовому смещению», – сказал Сирил. «Никаких денег или осознанного согласия недостаточно для производства слабо регулируемой технологии, которая уже используется для нарушения прав человека миллионов людей».

Для распознавания человека достаточно водительских прав – ФБР

ФБР и Иммиграционная служба считают, что фотографии с водительских удостоверений достаточно для распознавания лиц граждан.

Агенты Федерального бюро расследований, иммиграции и таможенного контроля превратили базы данных водительских прав штата в золотой рудник по распознаванию лиц, сканируя фотографии миллионов американцев без их ведома или согласия. Это стало известно из недавно выпущенных документов.

Тысячи запросов на распознавание лиц, внутренних документов и электронных писем, за последние пять лет, полученные по запросам на публичные записи исследователей из Центра конфиденциальности и технологий Джорджтаунского права (Georgetown Law’s Center on Privacy and Technology) и предоставленные The Washington Post, свидетельствуют о том, что федеральные следователи превратили государственные департаменты в “автомобильные” департаменты – базы данных транспортных средств как основу беспрецедентной инфраструктуры по наблюдения.

Полиция уже давно имеет доступ к отпечаткам пальцев, ДНК и другим «биометрическим данным», взятым у подозреваемых в совершении преступлений. Но записи этих баз данных содержат фотографии подавляющего большинства жителей штата, большинство из которых никогда не обвинялись в совершении преступления.

Ни Конгресс, ни законодательные органы штатов не дали разрешения на разработку такой системы, и все большее число законодателей-демократов и республиканцев критикуют технологию как опасный, распространенный и подверженный ошибкам инструмент наблюдения.

«Доступ правоохранительных органов к государственным базам данных”, в частности к базам данных транспортных средств, “часто делается в тени без согласия”
заявил председатель комитета по надзору палаты Elijah E. Cummings (D-Md.) для The Post.

Федеральные следователи превратили распознавание лиц в рутинный инструмент расследования. С 2011 года ФБР зарегистрировало более 390 000 поисков по распознаванию лиц в федеральных, местных базах данных, в том числе базах данных транспортных средств штатов, заявили в правительственном ведомстве по надзору (Government Accountability Office) в прошлом месяце. Записи показывают, что федеральные следователи установили ежедневные рабочие отношения с чиновниками департамента транспортных средств. Согласно отчетам, в Юте агенты ФБР и ICE зарегистрировали более 1000 поисков по распознаванию лиц в период с 2015 по 2017 год. Имена и другие детали скрыты, хотя десятки поисков помечены как «возможное совпадение».

Сан-Франциско и Сомервилль, штат Массачусетс, запретили своей полиции и государственным учреждениям использовать программное обеспечение для распознавания лиц, сославшись на обеспокоенность по поводу чрезмерной деятельности правительства и ослабления общественного доверия, и этот вопрос горячо обсуждается в Вашингтоне. Ожидается, что в среду представители Администрации транспортной безопасности, Таможенной и пограничной охраны и Секретной службы дадут показания на слушаниях в Комитете Палаты представителей по внутренней безопасности о том, как их агентства используют эту технологию.

Записи показывают, что технология уже тесно связана с современными правоохранительными органами. Они подробно описали регулярное использование распознавания лиц для выявления подозреваемых в совершении преступлений на низком уровне, включая обналичивание чеков и мелкие кражи. Отчеты показывают, что поиски часто выполняются не более чем электронным письмом федерального агента местному контактному лицу.

“Это действительно система “сначала следим, а потом разрешаем”. Люди думают, что это будущее, но распознование лиц и поиск происходит уже сегодня. Только ФБР делает 4000 поисков каждый месяц, и многие из них проходят через департаменты транспорта.”
Сказал Jake Laperruque, старший советник группы проекта по государственному надзору

Также в отчетах прослеживается противоречия между законами некоторых штатов и федеральными решениями по поиску и депортации незарегистрированных иммигрантов.

Законодатели Флориды, Техаса и других штатов в этом году представили законопроекты, которые расширили бы права на вождение для незарегистрированных иммигрантов. Некоторые из этих штатов уже позволяют ФБР сканировать фотографии водительских прав, в то время как другие, такие как Флорида и Нью-Йорк, ведут переговоры с ФБР о доступе, согласно Government Accountability Office.

Представитель Иммиграционной службы отказался отвечать на вопросы о том, как агентство использует поиск и распознавание лиц, заявив, что их «методы расследования обычно считаются чувствительными для правоохранительных органов».

На просьбу прокомментировать ФБР передало The Post показания конгресса в прошлом месяце – технология распознавания лиц имеет решающее значение «для сохранения свобод нашей нации, обеспечения защиты наших свобод и обеспечения нашей безопасности». Агентство в прошлом заявляло, что распознавание лиц могут дать полезные сведения, агенты должны проверить полученные данные и получить окончательные доказательства, прежде чем проводить аресты или выдвигать обвинения.

Защитники гражданских прав заявляют, что неточности распознавания лиц создают повышенную опасность ошибочной идентификации и ложных арестов. Точность программного обеспечения в значительной степени зависит от ряда факторов, включая освещение лица и качество изображения, исследования показали, что эта технология менее точна для людей с более темной кожей.

«У общественности нет способа контролировать, какую информацию о них имеет правительство»
Хасинта Гонсалес, представитель группы адвокатов Mijente

Чиновники Вермонта заявили, что прекратили использовать программное обеспечение для распознавания лиц в 2017 году. Губернатор штата и генеральный прокурор выступили против программного обеспечения для сканирования лица, сославшись на необходимость сбалансировать общественную безопасность с правами на неприкосновенность частной жизни жителей.

Данный текст является вольным переводом статьи The Washington Post

голоса
Рейтинг статьи
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии