07.10.2024
Дата публикации
Современные технологии искусственного интеллекта продвинулись настолько, что ИИ-боты теперь способны решать капчи практически на уровне людей. Согласно новым исследованиям, проведенным командой из ETH Zurich, боты, использующие специально обученные модели распознавания изображений, могут преодолевать капчи с эффективностью до 100%. Эта новость подтверждает, что мы вступаем в эпоху, где стандартные механизмы защиты от ботов теряют свою эффективность.
reCAPTCHA v2, используемая миллионами сайтов, основана на задаче определения объектов на изображениях, таких как велосипеды, светофоры или дорожные знаки. Несмотря на то, что Google уже несколько лет внедряет более продвинутую систему reCAPTCHA v3, старая версия все еще применяется на множестве ресурсов, и в некоторых случаях она используется как резервное средство защиты.
Исследователи из ETH Zurich использовали модифицированную модель распознавания объектов YOLO (You Only Look Once) для того, чтобы обучить бота решать капчи. Эта модель, известная своей способностью в реальном времени обнаруживать объекты на изображениях, была натренирована на 14 000 фотографий с уличными сценами. Как итог, бот смог успешно выделять нужные объекты, такие как пожарные гидранты или велосипеды, с эффективностью от 69% до 100%.
Для обхода других защитных механизмов капчи, исследователи использовали VPN, который помогал скрывать повторяющиеся решения с одного IP-адреса, а также имитации человеческого движения мыши. Эти меры в совокупности позволили боту обходить капчи даже быстрее, чем это делали люди в аналогичных тестах.
Хотя использование ИИ для решения капчей не ново, ранние попытки добивались успеха лишь в 68-71% случаев. Теперь же увеличение до 100% заставляет разработчиков систем безопасности задуматься о новых методах различения людей и ботов.
Формируется тенденция, в которой границы взаимодействия человека и ИИ постоянно меняются. Текстовые капчи, давно утратили свою эффективность, так как ИИ с легкостью распознает искажения шрифтов и символов. Даже сложные методы, такие как аудиокапчи, могут быть обойдены с помощью современных технологий распознавания речи.
Все это также приводит к выводу, что необходимы одновременно продвинутые, но при этом не чрезмерно сложные для человека инструменты проверки подлинности.
reCAPTCHA v2, используемая миллионами сайтов, основана на задаче определения объектов на изображениях, таких как велосипеды, светофоры или дорожные знаки. Несмотря на то, что Google уже несколько лет внедряет более продвинутую систему reCAPTCHA v3, старая версия все еще применяется на множестве ресурсов, и в некоторых случаях она используется как резервное средство защиты.
Исследователи из ETH Zurich использовали модифицированную модель распознавания объектов YOLO (You Only Look Once) для того, чтобы обучить бота решать капчи. Эта модель, известная своей способностью в реальном времени обнаруживать объекты на изображениях, была натренирована на 14 000 фотографий с уличными сценами. Как итог, бот смог успешно выделять нужные объекты, такие как пожарные гидранты или велосипеды, с эффективностью от 69% до 100%.
Для обхода других защитных механизмов капчи, исследователи использовали VPN, который помогал скрывать повторяющиеся решения с одного IP-адреса, а также имитации человеческого движения мыши. Эти меры в совокупности позволили боту обходить капчи даже быстрее, чем это делали люди в аналогичных тестах.
Хотя использование ИИ для решения капчей не ново, ранние попытки добивались успеха лишь в 68-71% случаев. Теперь же увеличение до 100% заставляет разработчиков систем безопасности задуматься о новых методах различения людей и ботов.
Формируется тенденция, в которой границы взаимодействия человека и ИИ постоянно меняются. Текстовые капчи, давно утратили свою эффективность, так как ИИ с легкостью распознает искажения шрифтов и символов. Даже сложные методы, такие как аудиокапчи, могут быть обойдены с помощью современных технологий распознавания речи.
Все это также приводит к выводу, что необходимы одновременно продвинутые, но при этом не чрезмерно сложные для человека инструменты проверки подлинности.