Раздвоение личностей. Хакеры взяли на вооружение системы распознавания лиц. Чем это опасно для миллионов людей?: Киберпреступность: Интернет и СМИ: Lenta.ru
Мечты фантастов прошлых поколений, похоже, окончательно сбылись: все чаще от госуправленцев и глав крупных технологических корпораций можно услышать, что будущее уже наступило. Западные и отечественные фильмы начала тысячелетия приучили нас, что можно подделать документы человека, его фото, голос и даже отпечатки пальцев. Последним оплотом надежности оставалась идентификация человека по лицу. Сегодня эту технологию используют производители смартфонов, госорганы, банки и метрополитены. Технологию распознавания лиц нередко называют абсолютно безопасной, но мировые эксперты бьют тревогу: еще ни разу не случалось, чтобы хакеры не находили способа обмануть систему. Насколько на самом деле реальна угроза — разбиралась «Лента.ру».
Новые личности
Денис (имя изменено) — завсегдатай одного из форумов даркнета для профессиональных «вилочников». Так в букмекерских конторах называют игроков, которые ловят «вилки» — несоответствия в коэффициентах на спортивные события на разных площадках, что позволяет им делать беспроигрышные ставки. Для поиска «вилок» используются специальные платные программы.
Фото: Denis Balibouse / Reuters
«Проблемой всегда было то, что конторы ловят «вилочников», анализируя данные об их ставках, после чего блокируют их без объяснения причин. Зачастую даже не удается вывести выигрыш, — жалуется Денис. — Такие блокировки требуют регулярного создания новых личностей».
Раньше букмекеры идентифицировали нового пользователя по селфи с раскрытым паспортом в руках, но теперь практически все популярные в России конторы требуют видеоидентификации. Подделать паспорт — вполне решаемая для «вилочников» задача: заказать нарисованные документы, которые потребует букмекер, можно у специальных умельцев. Идентификация по видео всегда была для них проблемой. Теперь она, похоже, решена.
Во время звонка букмекера программа создает некритичные помехи в канале связи, которые скрывают использование дипфейка, а изображение, которое видит сотрудник компании, совпадает с фото на паспорте. Это стоит немалых денег, и пока услуга оказывается только среди своих, потому что требует частичного раскрытия цифровой личности: установки программы, создания удаленных подключений. Но перспективы — потрясающие, потому что букмекерские конторы либо пока не используют детекторы дипфейков, либо нам об этом ничего не известно
Денис профессиональный «вилочник»
За фейковыми личностями, в которых технология превращает «вилочников» на время идентификации, стоят реальные люди, предполагает Денис: чтобы схема работала, нужно не только совпадение внешности на фотографии в паспорте и на видео, но и данные настоящих банковских карт. Эксперты по банковской безопасности давно поговаривают в непубличной обстановке, что практически во всех крупных компаниях финсектора существуют незалатанные черные дыры, дающие мошенникам доступ к персональным данным пользователей.
Искусственный интеллект, оживляющий изображения реально существующих людей, — одна из основных точек приложения усилий хакеров. Дипфейки — маски, созданные специальными программами, которые просто накладывают на реальное изображение чужое лицо. Несколько лет назад угловатость и комичность, с которой технология «оживляла» изображение, стала основой для нескольких интернет-мемов. Тогда Сильвестра Сталлоне заставили «исполнить» главную роль в «Один дома», а Арнольда Шварценеггера — все роли во «Властелине колец». Но если те подделки детекторы дипфейков (специальные программы, которые раскручивают созданную иллюзию в обратную сторону, выявляя критические несоответствия между теми самыми 80 ключевыми точками) определяли почти в 100 процентах случаев, то теперь этот показатель стал ниже.
Американский режиссер Джордан Пил совместно с изданием BuzzFeed выпустил дипфейк-видео с участием бывшего президента США Барака Обамы. В ролике, созданном с помощью программы Fakeapp и графического редактора, нарисованный Обама объяснил, что современные технологии позволяют сделать так, что кто угодно может говорить на видео что угодно. Затем фейковый президент произнес несколько фраз, которые настоящий Обама никогда не сказал бы публично: например, назвал тогдашнего президента США Дональда Трампа абсолютным придурком. В конце Пил призвал зрителей быть более бдительными и внимательнее проверять источники информации, прежде чем им доверять.
«Системы, использующие распознавание по лицу, имеют в своем составе специальные механизмы Liveness Detection. Фактически они проверяют, что с системой «общается» живой пользователь, а не его фотография. Поэтому, когда злоумышленник пытается обмануть систему распознавания лиц, он, по сути, соревнуется с механизмами Liveness Detection. Степень их надежности зависит от конкретной биометрической системы. Но стоит отметить, что лидеры российского и международного рынка технологий распознавания лиц достаточно хорошо защищают свои системы от взлома», — уверен Алексей Кузьмин, руководитель группы биометрических технологий и систем аутентификации центра прикладных систем безопасности компании «Инфосистемы Джет».
Шаблонный подход
Самые первые системы распознавания строились по эмпирическому принципу: они «думали», как человек. Например, начинали просто с определения того, есть ли на изображении хотя бы нос и глаза, исследуя характерные перепады по цветам. Так получалось понять, на что вообще «смотрит» программа. При этом желательно, чтобы рядом не было других лиц, а сам фон был равномерным и светлым, без кислотных цветов или фикусов причудливых форм. Технологически такие системы совсем просты в исполнении, но в современном мире, где на изображениях всегда много информационного шума, практически не применимы.
Более развитая вариация технологии, построенной на этом подходе, уже умела справляться с тем, что человек в кадре, к примеру, повернул голову. Но пестрое окружение все еще оставалось для нее проблемой
После этого в системах распознавания лиц начали использовать шаблонный подход, при котором лица сверялись с заданными разработчиками стандартами. Получилось в итоге хуже, чем ожидалось: такие системы требовали громоздких вычислений и оказались слишком медленными на практике.
Фото: Qilai Shen /Bloomberg / Getty Images
Современные алгоритмы по мере развития компьютерного зрения научились выявлять на лицах около 80 ключевых точек и строить линии между ними. Самые банальные варианты — расстояние между глазами или места закругления скул. Сейчас на это уходит всего несколько секунд, а полученный в итоге сложный набор данных конвертируется в уникальный код — цифровой отпечаток. И уже его можно сопоставлять с базой данных, неважно — клиентов банков или самых разыскиваемых преступников. Что самое важное, такие программы сначала долго обучаются на тестовых снимках и продолжают развиваться даже в боевых условиях.
Проблемы с этичностью
Первый успешный российский стартап от компании NTechLab, связанный с распознаванием лиц, поначалу пользовался бешеной популярностью. Правда, вскоре критики обнаружили примеры нецелевого использования технологии и другие проблемы с этичностью. И все равно — теперь именно он развернут в масштабах всей страны.
Фото: Andrey Rudakov / Bloomberg / Getty Images
Проект FindFace начинался как сервис, помогающий найти пользователей «ВКонтакте» по их фотографиям. Всего через год после его запуска департамент американского Министерства торговли, отвечающий за развитие технологий, признал использованные в разработке биометрические алгоритмы лучшими в мире.
Детище компании NTechLab завоевывало противников с такой же скоростью, как и сторонников. Дыр с безопасностью в сервисе не обнаружили, однако оказалось, что в руках обычных пользователей эта технология может быть опасным инструментом. Пока FindFace тестировали на фестивале Alfa Future People и «пилотировали» на паре тысяч столичных камер уличного наблюдения, в Петербурге приложение использовали, чтобы найти аккаунты двоих подростков, устроивших пожар в парадной. До самосуда, правда, не дошло. Как и в нашумевшей в свое время истории, когда пользователи «Двача» охотились на реальные аккаунты российских порноактрис, а потом устраивали спам-атаки с самыми изощренными угрозами. Часто — не только самим актрисам, но и их родственникам и друзьям.
В итоге проект FindFace закрыли, а NTechLab начал активно сотрудничать с властями. Сегодня компания — крупнейший подрядчик государства, сотрудничающий со многими подобными компаниями по всему миру, в том числе и с теми, которые замечены в работе на спецслужбы.
ФБР и не снилось
Самым уязвимым местом систем аутентификации по лицам долгое время были сами базы. Даркнету известны тысячи сливов персональных данных пользователей, а хакерам не принципиально, что именно воровать: номера банковских карт или цифровые отпечатки лиц.
Считается, что самой большой подобной базой в мире обладает ФБР. Речь может идти примерно о 650 миллионах изображений граждан США, мигрантов и туристов, посещавших страну в последнее десятилетие.
Фото: Vidhyaa Chandramohan / Reuters
Но самые лучшие базы, конечно, у социальных сетей. У каждой из них есть свои собственные алгоритмы для распознавания лиц. Простор для их применения — куда более широкий, чем у ФБР, ведь условный Facebook, в отличие от спецслужб, имеет в своем распоряжении не одно портретное фото для визы, а десятки или даже сотни снимков конкретного пользователя, выполненных с разных ракурсов и в разных состояниях.
«С точки зрения обеспечения безопасности распознаванию по лицу присущи те же свойства, что и всем биометрическим способам. Человеку сложно противостоять попыткам взлома, так как отпечатки пальцев или форма лица в принципе не могут быть приватными, и их практически невозможно изменить. В этом отличие биометрических данных от, например, паролей, которые должны быть строго конфиденциальными, и пользователь может при необходимости их сменить по собственной воле или требованию системы аутентификации», — констатирует Алексей Кузьмин.
«Хакеры помогут не скатиться в тоталитаризм»
Эти примеры показывают, что безоговорочно верить в безопасность систем распознавания лиц нельзя. Именно поэтому вызывал и продолжает вызывать определенный скептицизм проект Единой биометрической системы (ЕБС), запущенный в России в 2018 году. Сейчас к ней подключены все банки страны, но пока в базу передали свои сведения лишь 200 тысяч человек. Оператор системы — «Ростелеком», который настаивает на том, что весь процесс полностью безопасен. Публичных сведений об утечках из ЕБС действительно не было, а в даркнете пометки с источником происхождения на данные ставить не принято.
200тысяч человексогласились передать свои личные данные Единой биометрической системе
«Наша система распознавания лиц создавалась около двух лет, но выкатить ее в промышленную эксплуатацию пришлось с некоторыми недоделками — поджимали конкуренты, — признается «Ленте.ру» на условиях анонимности один из ключевых разработчиков крупного российского банка. — Были ли в ней проблемы с безопасностью? На бумаге — нет. Но на моделирование всех возможных сценариев у нас просто не было времени».
Первоначальный восторг по поводу безопасности видеоидентификации сменился в мире легкой настороженностью. В ЕС готовят поправки, запрещающие применять искусственный интеллект в системах видеонаблюдения; в США есть целые города, в которых запрещено распознавание лиц; в Великобритании такой запрет коснулся даже полиции одного из регионов Уэльса.
«Вероятнее всего, массовое внедрение распознавания лиц произойдет в таких странах, как Россия и Китай, где есть соответствующая поддержка государства. В США и Европе есть сдерживающие факторы на уровне законодательства, в частности, Европейского регламента по защите данных GDPR и схожих по смыслу документов ряда штатов США», — заключает Кузьмин из компании «Инфосистемы Джет».
Обратную сторону технологии можно увидеть на примере Китая. Поначалу над ней смеялись: система видеоидентификация запрещала выдавать бумагу в уличных туалетах тем, кто уже получал ее в последние девять минут. Теперь, когда в Китае создали и запустили систему оценки граждан, которая присваивает им социальный рейтинг, видеоидентификация стала частью пугающей антиутопии — совсем как в сериале «Черное зеркало».
Фото: Дмитрий Лебедев / Коммерсантъ
«Скатиться в тоталитаризм России могут помешать как раз хакеры, — шутит в разговоре с «Лентой.ру» системный инженер российского представительства одной из крупнейших глобальных компаний по защите данных. — Здесь более вероятен сценарий США, где только во второй половине 2020 года было отмечено 80 тысяч попыток обмануть госорганы на этапе видеоидентификации с помощью дипфейков. Эта цифра настолько велика, что становится понятно: дипфейки служат уже не только киберпреступникам, они пошли в народ».
Распознавание Шредингера
Эксперты кредитной компании Experian PLC выводят на повестку дня новую угрозу: хакеры уже не просто подделывают чужие лица, а создают новые цифровые личности. Их никогда не существовало, но у них могут быть все идентификационные документы, счета в банках и даже пенсионные накопления. Очевидные сферы применения таких подделок — терроризм и финансовые махинации.
В 2021 году китайские медиа описывали истории двух жителей Шанхая, которые создали фиктивную компанию для продажи кожаных сумок и отправляли поддельные налоговые счета крупным «клиентам». Систему распознавания лиц, внедренную у китайских налоговиков и использующуюся для верификации счетов-фактур, удалось обмануть как раз такими новыми дипфейками. Ущерб составил 76,2 миллиона долларов, преступников удалось поймать.
Фото: Bobby Yip / Reuters
В российском экспертном сообществе мнение о безопасности систем распознавания лиц пока очень осторожное. Опрошенные «Лентой.ру» представители нескольких компаний, занимающихся информационной безопасностью, согласились говорить либо на условиях анонимности, либо отказались от комментариев вовсе.
С одной стороны, понятно, что механизмы защиты, окружающие саму технологию и базы данных, достаточно надежны. С другой — весьма вероятно, что больших взломов избежать не удастся. Явная польза систем распознавания — упрощение и повышение надежности идентификации в любой сфере, создание полностью безопасных и умных городов, даже оплата в метро по лицу — всегда будет перекрываться продвинутым инструментарием хакеров, которые, как показывает практика, почти всегда оказываются на шаг впереди. В итоге распознавание лиц — одновременно и максимально безопасный, и максимально небезопасный инструмент. Все зависит от того, покажется ли конкретное лицо привлекательным киберпреступникам.