Искусственный интеллект против книги: как Anthropic трансформирует подход к обучению ИИ и нарушает границы авторского права

04:14, 29 Июн, 2025
Ирина Валькова
нейросети
Источник фото: pronedra.ru

В мире, где технологии развиваются быстрее, чем успевает реагировать законодательство, возникают ситуации, которые ставят под сомнение саму сущность интеллектуальной собственности. Последний резонансный случай связан с американской компанией Anthropic, разрабатывающей искусственный интеллект. Она оказалась в центре судебного скандала — но сумела обернуть его себе на пользу, создав потенциально опасный прецедент.

Цифровой каннибализм: книги на корм ИИ

По данным издания Ferra.ru, в ходе обучения своей языковой модели Claude компания Anthropic применила метод, вызвавший ожесточённые споры: миллионы бумажных книг были физически уничтожены. Ради получения «чистого» цифрового текста, пригодного для анализа и машинного обучения, специалисты срезали корешки книг, сканировали страницы, а затем избавлялись от самих экземпляров, превращая их в макулатуру.

Это не просто технический шаг — это философская и юридическая дилемма. Уничтожая оригиналы, компания заявляет, что не копирует произведения для дальнейшего распространения, а совершает акт «трансформации» — создания нового знания на основе старого материала.

Суд поверил: уничтожение как аргумент

Ключевым моментом судебного разбирательства стал тот факт, что Anthropic не собирается публиковать или продавать оцифрованные книги. Все цифровые копии используются исключительно для «внутренних нужд» — то есть для обучения ИИ.

Суд признал: поскольку оригинальные носители уничтожены, а цифровые копии не пойдут «в народ», это можно считать «добросовестным использованием» (fair use). Более того, именно уничтожение книг стало аргументом в пользу компании — ведь, по мнению суда, это подтверждает отсутствие коммерческой выгоды от самих текстов.

Новая реальность: закон не поспевает за технологиями

Это решение стало первой вехой на пути, где ИИ получают доступ к миллионам защищённых авторским правом произведений без согласия авторов или издателей. И если сегодня это касается Anthropic, то завтра на такую же практику могут опереться и другие гиганты вроде Google, OpenAI или Meta.

Правозащитники и юристы в сфере авторского права уже бьют тревогу: подобные действия открывают ящик Пандоры. Создатели художественных и научных текстов теряют контроль над использованием своих трудов, а системы ИИ учатся буквально на руинах культуры, без уплаты роялти или лицензий.

Граница между использованием и эксплуатацией

Сторонники Anthropic уверяют: модель Claude не «запоминает» книги, а лишь извлекает из них статистические закономерности, чтобы лучше понимать язык. Но кто проверит, не сможет ли модель в будущем сгенерировать почти точный текст «1984» Оруэлла или «Гарри Поттера» Роулинг — просто по запросу пользователя?

Как быть с поэтами, писателями, переводчиками, которые посвятили жизнь своему делу? Получается, что ИИ может воспользоваться их трудами, не попросив разрешения — и даже не поблагодарив.

Последствия: от судов до новых законов

Решение суда в пользу Anthropic может стать толчком к пересмотру законодательства о цифровых копиях, авторском праве и применении ИИ в образовании и индустрии. В США уже обсуждаются законопроекты, ограничивающие использование защищённых текстов в обучении ИИ. Европа и Азия внимательно следят за прецедентом.

Для России это также становится актуальным — в условиях развития собственных языковых моделей, таких как GigaChat, «Сварог» или «РУСЛАН», необходимо заранее определить: как и на чьих текстах эти системы будут обучаться?

Что дальше?

Компания Anthropic одержала частичную победу, но окончательная битва ещё впереди. Общество стоит перед выбором: либо признать, что обучение ИИ требует новых подходов и жертв, либо настаивать на неприкосновенности культурного наследия.

И пока суды спорят о тонкостях «добросовестного использования», машины продолжают учиться — возможно, на ваших любимых книгах.

Ранее на сайте «Пронедра» писали про нейросети против учёных: 5 ИИ, которые уже сегодня решают задачи лучше людей

Поделитесь этой новостью
Комментарии (0)

Ваш адрес email не будет опубликован. Обязательные поля помечены *