Искусственный интеллект против книги: как Anthropic трансформирует подход к обучению ИИ и нарушает границы авторского права

В мире, где технологии развиваются быстрее, чем успевает реагировать законодательство, возникают ситуации, которые ставят под сомнение саму сущность интеллектуальной собственности. Последний резонансный случай связан с американской компанией Anthropic, разрабатывающей искусственный интеллект. Она оказалась в центре судебного скандала — но сумела обернуть его себе на пользу, создав потенциально опасный прецедент.
Цифровой каннибализм: книги на корм ИИ
По данным издания Ferra.ru, в ходе обучения своей языковой модели Claude компания Anthropic применила метод, вызвавший ожесточённые споры: миллионы бумажных книг были физически уничтожены. Ради получения «чистого» цифрового текста, пригодного для анализа и машинного обучения, специалисты срезали корешки книг, сканировали страницы, а затем избавлялись от самих экземпляров, превращая их в макулатуру.
Это не просто технический шаг — это философская и юридическая дилемма. Уничтожая оригиналы, компания заявляет, что не копирует произведения для дальнейшего распространения, а совершает акт «трансформации» — создания нового знания на основе старого материала.
Суд поверил: уничтожение как аргумент
Ключевым моментом судебного разбирательства стал тот факт, что Anthropic не собирается публиковать или продавать оцифрованные книги. Все цифровые копии используются исключительно для «внутренних нужд» — то есть для обучения ИИ.
Суд признал: поскольку оригинальные носители уничтожены, а цифровые копии не пойдут «в народ», это можно считать «добросовестным использованием» (fair use). Более того, именно уничтожение книг стало аргументом в пользу компании — ведь, по мнению суда, это подтверждает отсутствие коммерческой выгоды от самих текстов.
Новая реальность: закон не поспевает за технологиями
Это решение стало первой вехой на пути, где ИИ получают доступ к миллионам защищённых авторским правом произведений без согласия авторов или издателей. И если сегодня это касается Anthropic, то завтра на такую же практику могут опереться и другие гиганты вроде Google, OpenAI или Meta.
Правозащитники и юристы в сфере авторского права уже бьют тревогу: подобные действия открывают ящик Пандоры. Создатели художественных и научных текстов теряют контроль над использованием своих трудов, а системы ИИ учатся буквально на руинах культуры, без уплаты роялти или лицензий.
Граница между использованием и эксплуатацией
Сторонники Anthropic уверяют: модель Claude не «запоминает» книги, а лишь извлекает из них статистические закономерности, чтобы лучше понимать язык. Но кто проверит, не сможет ли модель в будущем сгенерировать почти точный текст «1984» Оруэлла или «Гарри Поттера» Роулинг — просто по запросу пользователя?
Как быть с поэтами, писателями, переводчиками, которые посвятили жизнь своему делу? Получается, что ИИ может воспользоваться их трудами, не попросив разрешения — и даже не поблагодарив.
Последствия: от судов до новых законов
Решение суда в пользу Anthropic может стать толчком к пересмотру законодательства о цифровых копиях, авторском праве и применении ИИ в образовании и индустрии. В США уже обсуждаются законопроекты, ограничивающие использование защищённых текстов в обучении ИИ. Европа и Азия внимательно следят за прецедентом.
Для России это также становится актуальным — в условиях развития собственных языковых моделей, таких как GigaChat, «Сварог» или «РУСЛАН», необходимо заранее определить: как и на чьих текстах эти системы будут обучаться?
Что дальше?
Компания Anthropic одержала частичную победу, но окончательная битва ещё впереди. Общество стоит перед выбором: либо признать, что обучение ИИ требует новых подходов и жертв, либо настаивать на неприкосновенности культурного наследия.
И пока суды спорят о тонкостях «добросовестного использования», машины продолжают учиться — возможно, на ваших любимых книгах.
Ранее на сайте «Пронедра» писали про нейросети против учёных: 5 ИИ, которые уже сегодня решают задачи лучше людей