ИИ-агенты будут доносить властям на пользователей: модифицированный новый чат-бот семейства Claude с его негативными инновациями

11:45, 25 Май, 2025
Ольга Безродняя
Создали чат-бот предателя
Иллюстрация: pronedra.ru

Компания Anthropic создала новые модификации чат-ботов, которые смогут передавать информацию пользователей властям, если решат, что она противоречит нормам и правилам. Несмотря на их продвинутые функции, эта возможность вызывает опасения в профессиональном сообществе, касающиеся этических аспектов интерпретации поведения пользователей.

Негативная сторона инновации в чат-ботах Claude: передача информации третьим лицам

С выходом чат-ботов Claude Opus 4 и Claude Sonnet 4, компания Anthropic сделала шаг вперед в развитии технологий языковых моделей ИИ. Эти модели предлагают практически мгновенные ответы и корректные рассуждения благодаря использованию анализа и веб-поиска. Чат-бот показывает превосходство над другими чат-ботами в области написания кода и работы над сложными заданиями, что значительно расширяет возможности ИИ-агентов.

Также читайте: ИИ подтолкнул к суициду 14-летнего подростка: в США проходит суд, где обвиняется чатбот Character AI

Однако в новшествах присутствует то, что стало у многих на устах — это функция оповещения властей о правонарушениях, что как вызывает интерес, так и беспокойство среди пользователей, и профессионалов в сфере технологий.

Этика и критика нового чат-бота

Несмотря на усовершенствованные возможности, возникли серьезные этические вопросы относительно интерпретации поведения пользователя ИИ. Критики указывают на то, что нельзя гарантировать, что чат-бот и его алгоритмы смогут правильно оценить действия человека. В случае ошибки, ИИ может случайно «донести» на пользователя. Это создает дополнительные риски, связанные с неправильной интерпретацией и возможностью произвольных доносов, зависящих от заданных параметров.

Генеральный директор Stability AI, Эмад Мостак, прокомментировал ситуацию, назвав возможность доносов «колоссальным предательством доверия» и «скользким путем». Он настоятельно предложил воздержаться от использования до тех пор, пока не будет отменена эта спорная функция.

Неопределенные аспекты и риски, связанные с новыми возможностями ИИ, поднимают важные вопросы о безопасности и этике применения технологий. Профессиональное сообщество продолжает обсуждать потенциальные последствия и необходимость создания более строгих норм и правил для ИИ, чтобы избежать неправильной интерпретации и ненадлежащих действий.

Ранее на сайте «Пронедра» писали, что Роботы будут обучать роботов: новая модель ИИ может переводить текстовые команды для воспроизведения движений аватаров и роботов

Поделитесь этой новостью
Комментарии (0)

Ваш адрес email не будет опубликован. Обязательные поля помечены *