Искусственный интеллект стал «человеком»: новая версия ChatGPT научилась обходить CAPTCHA

01:50, 31 Июл, 2025
Ирина Валькова
ChatGPT личный секретарь
Иллюстрация: pronedra.ru

Вечером 29 июля британское издание The Independent опубликовало материал, вызвавший волну обсуждений в технологическом и этическом сообществах: новая версия чат-бота ChatGPT научилась проходить CAPTCHA — систему онлайн-защиты, которая позволяет различать реальных пользователей и автоматические скрипты. Теперь ИИ сам ставит галочку «Я не робот», успешно обходя один из основных рубежей в борьбе с ботами в интернете.

Эта новость моментально вызвала бурю обсуждений: с одной стороны, пользователи получили ещё более удобного и автономного цифрового помощника, с другой — встал вопрос о новых рисках, связанных с утратой контроля над поведением нейросетей в интернете.

Новая грань цифрового удобства

Теперь ChatGPT способен выполнять за пользователя рутинные действия, которые раньше требовали личного участия. Он может самостоятельно:

  • оформлять заказы в интернет-магазинах;
  • бронировать столики в ресторанах;
  • регистрироваться на мероприятиях;
  • и даже заполнять анкеты на сайтах, защищённых CAPTCHA.

Важно, что представители компании OpenAI подчёркивают: бот не действует самовольно. Он выполняет действия в интересах пользователя и только с его разрешения. По словам разработчиков, всё поведение ИИ подчинено строгим протоколам безопасности, а данные пользователя защищены.

Технологический прорыв или тревожный сигнал?

Прорыв в способности ИИ имитировать поведение человека вновь поднимает фундаментальный вопрос: где граница между помощником и самостоятельным агентом?

CAPTCHA долгое время считалась одним из последних бастионов защиты интернета от автоматизированных ботов. Она предполагала, что только человек способен выбрать правильные изображения или поставить галочку, подтверждающую свою личность. Однако теперь эта защита, похоже, перестаёт быть надёжной.

Как отмечает издание The Independent, ChatGPT использует визуальные и поведенческие алгоритмы, позволяющие ему понять, где поставить галочку, или даже распознать нужные объекты на картинках — и всё это без участия человека.

Мнение экспертов: пора объединяться

Новость о новых возможностях ChatGPT прозвучала на фоне недавних высказываний одного из отцов-основателей современной ИИ-отрасли — Джеффри Хинтона. Учёный в очередной раз предупредил, что нейросети стремительно приближаются к уровню, на котором смогут превзойти человека по интеллекту. Он призвал мировое сообщество к созданию международной коалиции по регулированию и мониторингу ИИ.

«Мы должны делиться исследованиями и мерами безопасности, даже если у наших стран разные интересы. Это вопрос выживания», —

подчеркнул Хинтон.

Угроза или неизбежность?

Появление ChatGPT, способного обойти CAPTCHA, вызывает опасения у кибербезопасников и правозащитников. Они указывают на потенциальные риски:

  • возможность массовой автоматизации фишинговых атак;
  • участие ИИ в манипуляциях на платформах голосований и опросов;
  • нарушение принципов приватности и ответственности.

При этом сами пользователи — особенно представители бизнеса и цифровых профессий — напротив, воспринимают это как шаг к полной цифровой автоматизации. ИИ уже давно помогает в написании писем, генерации кода, анализе данных, а теперь — ещё и в простых действиях на сайтах.

Куда ведёт дорога?

Новый навык ChatGPT — это технологическое достижение, граничащее с философским вызовом. Когда машина учится проходить тест на человечность, мир сталкивается с вопросом: не пора ли пересмотреть само определение того, что значит быть человеком в цифровую эпоху?

Способность ИИ обходить CAPTCHA — это не только вопрос комфорта, но и серьёзный сигнал к действию. Необходим международный диалог о том, как контролировать развитие нейросетей, не мешая их прогрессу, но и не позволяя выйти за рамки этической и правовой допустимости.

Ранее журналисты сайта «Пронедра» писали, что нейросети против учёных: 5 ИИ, которые уже сегодня решают задачи лучше людей

Поделитесь этой новостью
Комментарии (0)

Ваш адрес email не будет опубликован. Обязательные поля помечены *