О капче и человечности

Twitter

Google+

По материалам The Verge

В прошлом году постоянные требования Google доказать, что пользователь является человеком, в определенный момент стали принимать все более агрессивный характер. И все чаще требовалось не просто нажать мирную маленькую кнопочку «Я не робот», а выполнить дальнейшие указания: выбрать из набора изображений все, на которых присутствуют перекрестки, светофоры или витрины. Вскоре светофоры стали прятаться в листве отдаленных деревьев, перекрестки – искривляться и прятаться за углом, а оформления витрин сделались размытыми и с невнятным текстом. Особенно демотивировало предложение опознать пожарный гидрант – вот где можно было потерпеть фиаско с наибольшей вероятностью.

Как вам наверняка известно, такие тесты носят название CAPTCHA (аббревиатура от «Completely Automated Public Turing test to tell Computers and Humans Apart», полностью автоматизированный публичный тест Тьюринга для различения компьютеров и людей), и они достигли в своем развитии определенного апогея неразборчивости. В начале 2000-х для того, чтобы отсечь большую часть спам-ботов, было достаточно простых картинок с буквами. Но десятилетие спустя, когда Google приобрела программу от разработчиков из Университета Карнеги-Меллона и использовала ее для оцифровки в проекте Google Книги, эти буквы приходилось все больше подвергать зрительным искажениям и размытию. Это требовалось, чтобы опережать программы для распознавания текста – те самые программы, которым попутно помогали развиваться все те несчастные, кто раз за разом разгадывал капчу.

Капча является изящным инструментом для обучения искусственного интеллекта, и потому любой тест может использоваться ограниченное время – что и предполагали его изобретатели с самого начала. Поскольку миллиарды таких загадок на грани возможностей ИИ постоянно решаются исследователями, мошенниками и самыми обычными людьми, в какой-то момент машинам суждено превзойти нас на этом поприще. Так, в 2014 году Google столкнула человеческий разум и один из своих алгоритмов машинного обучения в попытке разгадать один из примеров капчи с наиболее искаженными символами. Компьютер давал правильный результат в 99.8% случаев, а люди – лишь в 33%.

Затем Google перешла к использованию NoCaptcha ReCaptcha, механизма, который анализирует данные и поведение пользователя и дает ряду людей доступ просто по клику «Я не робот», а части из них приходится кликать на картинки. Но машины вновь дышат людям в затылок. Вот эти навесы над окнами – это витрины или нет? На самом деле они – финальный аккорд в битве людей против машин.

Джейсону Полакису, профессору Университета Иллинойса в Чикаго, принадлежит личная заслуга в недавнем повышении сложности капчи. В 2016 году он опубликовал доклад, в котором использовал доступные инструменты распознавания, включая собственный обратный поиск по изображениям Google, чтобы разгадать капчу от Google с 70-процентной точностью. Другие исследователи выбрали объектом аудиокапчу от Google, применив к ней собственные программы распознавания аудиоинформации от компании.

Машинное обучение в настоящее время немногим хуже людей справляется с базовыми задачами распознавания текста, изображений и голоса, как говорит Полакис. На самом деле, возможно, алгоритмы даже опережают нас: «Мы находимся на той стадии, когда усложнение задачи для программы ведет к тому, что она становится слишком сложной для многих людей. Нам нужны какие-то альтернативы, но конкретного плана еще нет».

Литература, посвященная капче, пестрит ложными посылками и странными попытками найти альтернативу распознаванию текста или изображений, в которой люди одинаково преуспевали бы, а машины терпели неудачу. Ученые пытались предложить пользователям распределить изображения людей по выражению лица, полу и этнической принадлежности (можно представить, чем это кончилось). Предлагались варианты капчи-викторины и даже капчи, основанной на детских стишках, популярных там, где якобы вырос тот или иной пользователь. Такие «культурологические» варианты нацелены на противостояние не только ботам, но и людям, работающим на удаленных «фермах», разгадывая капчу за копейки. Люди пытались обмануть распознавание изображений, например, предлагая пользователям распознать свиней, но предлагая им мультяшные изображения хрюшек в солнечных очках. Исследователи просили людей распознать изображения в наборе пятен – наподобие игры, которую мы помним из детства. Самый занятный вариант – это, наверное, тот, что в 2010 году использовал для капчи древние изображения на камне – петроглифы. Компьютерам не очень хорошо удавалось распознать жестовые наброски оленей, нацарапанных на стенах пещеры.

Недавно предпринимались попытки создать игровую капчу, тесты, в которых пользователи должны вращать предметы или двигать части пазла, при этом условия даются не в виде текста, а символами или становятся понятны из контекста. Надежда тут на то, что люди поймут логику задачи, а компьютеры в отсутствие четких инструкций не справятся. Есть и исследователи, которые пытаются задействовать физическую природу человека, используя камеры устройств или дополненную реальность для интерактивной проверки человеческой сущности.

Проблема таких тестов необязательно связана с тем, что боты слишком умны. Хуже то, что люди с ними не справляются. И дело не в том, что люди тупы – дело в том, что они слишком различаются по языку, культурному контексту и опыту. И как только вы пытаетесь создать тест, который может пройти любой человек, без предварительного обучения и особо не думая, все сводится к примитивным задачам вроде обработки изображений, а с этим должен хорошо справляться специально разработанный для этого ИИ.

«Ограничителем для тестов выступают человеческие возможности, — говорит Полакис. – И речь не только о физических возможностях, тесты должны быть универсальными в плане языка и культуры. Задание должно быть равно выполнимо для живущего в Греции, в Чикаго, в Южной Африке, в Иране и в Австралии. И оно не должно зависеть от культурных особенностей и различий. И это серьезно ограничивает вас в том, что вы можете сделать. И нужно, чтобы человек мог решить задачу быстро, чтобы она не была слишком надоедлива».

И вот тут проблема, чем заменить эти загадки с размытым текстом, ведет нас в область философии. Какое универсальное качество, присущее человеку, можно продемонстрировать машине, но которое при этом машина не может имитировать? Что значит быть человеком?

Может быть, наша человечность не определяется тем, как мы решаем задачу – но тем, как мы существуем в этом мире – или в данном случае в Интернете. «Игровая капча, видео-капча, любой вид капчи, который можно придумать, в конце концов будет взломан», — говорит Шуман Гоземаджумдер, который вначале работал в Google на поприще борьбы с автоматизацией кликов, а ныне стал главным техническим директором компании Shape Security, занимающейся борьбой с ботами. Тестам он предпочитает то, что называется «постоянной аутентификацией», по сути, наблюдением за поведением пользователя в поисках признаков действий машины. «Реальный человек недостаточно хорошо контролирует свои моторные функции, он не может двигать  мышкой одинаково, совершая это действие снова и снова, даже если очень постарается, — говорит Гоземаджумдер. – В то время как бот будет действовать на сайте без применения мыши или будет двигать мышь очень выверенным образом, действиям человека присуща «энтропия», которую очень трудно имитировать».

Команда, которая занимается капчой в Google, думает сходным образом. Последняя версия, reCaptcha v3, анонсированная в конце прошлого года, использует «адаптивный анализ риска», чтобы оценивать, насколько подозрителен трафик: затем владельцы сайта могут озадачить подозрительного пользователя тестом вроде ввода пароля или двухфакторной аутентификации. Google не говорит, какие факторы учитываются, кроме того, что анализируется «хороший трафик» на сайте, с которым можно сравнить и распознать «вредоносный трафик». Исследователи в области безопасности говорят, что это набор куки, атрибутов браузера, паттернов трафика и других факторов. Недостаток новой модели распознавания ботов в  том, что если вы хотите минимизировать наблюдение за вами в сети, это может быть очень раздражающим опытом, потому что такие вещи, как VPN и расширения для борьбы с отслеживанием, могут заставить отметить вас как подозрительного пользователя и заставить решать задачки.

Аарон Маленфант, ведущий инженер команды, занимающейся капчой в Google, говорит, что отказ от тестов Тьюринга – это способ уйти от противостояния, в котором человек продолжает проигрывать. «По мере того, как люди вкладывают все больше и больше в машинное обучение, такие задачи становятся все труднее для людей, и вот почему, в частности, мы разработали CAPTCHA V3, чтобы выйти за пределы этой зависимости».  Маленфант говорит, что через пять-десять лет капча вообще потеряет смысл, и вместо нее в сети в фоне будет постоянно происходить скрытый тест Тьюринга.

В своей книге «Самый человечный человек» Брайан Кристиан проходит тест Тьюринга в качестве «подставного человека» и обнаруживает, насколько трудно в разговоре доказать свою человеческую природу.  С другой стороны, создатели ботов выяснили, что тесты легко пройти не за счет демонстрации ума или красноречия, а отшучиваясь невпопад вместо ответов на вопросы или делая опечатки. Бот, который выиграл конкурс Тьюринга в 2014 году, изображал украинского подростка с плохим знанием английского. В конце концов, человеку свойственно ошибаться. Возможно, что похожее будущее ждет и капчу – самый распространенный тест Тьюринга в мире.  Новые противники человека будут пытаться превзойти его не в распознавании текста и изображений, а в совершении ошибок, попадании мимо кнопок, они будут отвлекаться и переключаться между вкладками. «Думаю, народ начинает понимать, где может пригодиться приложение, имитирующее среднестатистического пользователя… или глупого пользователя», — говорит Гоземаджумдер.

Впрочем, капча может и продолжить свое существование. В 2017 году Amazon запатентовала схему, в которой задействованы оптические иллюзии и логические задачи, невероятно трудные для человека. Она называется «Тест Тьюринга через ошибку»: пройти его можно, лишь дав неправильный ответ.

источник