Преграды для развития нейросетей или почему вскоре может остановиться распространение ИИ

21:16, 29 Июн, 2023
Евгения Комарова
Источник фото: rapidresponseppe.com

Сергей Загоруйко и Алексей Малафеев, известные исследователи в области искусственного интеллекта, поделились своими опасениями касательно будущего нейросетей. Их анализ, освещенный в материале Forbes.ru, указывает на потенциальное снижение качества работы этих систем.

Замкнутый цикл обучения ИИ

Исследования, проведенные учеными из Великобритании и Канады, выявили проблему, известную как «петля» ИИ. Она заключается в том, что обучение нейросетей на данных, сгенерированных предыдущими ИИ-моделями, может привести к снижению качества их работы. Это явление может стать причиной технического коллапса в индустрии, поскольку генеративные модели способны создавать контент, который может переполнить интернет массой некачественного и искаженного материала.

Такой контент, включающий тексты, изображения и видео, может нести в себе фактические ошибки и искажать реальность, что представляет собой угрозу для достоверности информации в сети. Более того, последующие поколения ИИ, обученные на таких данных, могут продуцировать еще более искаженные результаты, усугубляя проблему отдаления от реальности.

Точный объем контента, созданного ИИ и уже присутствующего в сети, пока неизвестен, но проблема «загрязнения» данных уже ощущается. Это может привести к ухудшению качества сервисов, основанных на ИИ, поскольку они будут обучаться на нерелевантных или искаженных данных.

Проблематика «внедрения» ИИ в информационное пространство уже заметна. Современные языковые модели способны генерировать контент, который может обходить системы контроля и мониторинга, влияя на общественное мнение и даже исказив результаты важных событий, как это было в случае с выборами в США.

Эксперты призывают к разработке новых подходов и механизмов контроля, которые смогут предотвратить или минимизировать риски, связанные с «петлей» ИИ. Важно создать системы, способные отличать «оригинальный» контент от сгенерированного ИИ, чтобы обеспечить сохранение качества и достоверности информации в цифровом пространстве.

Особенности развития алгоритмов нейросетей

Литература играет ключевую роль в формировании убеждений и мышления человека с ранних лет, и аналогичные механизмы обучения применимы к искусственному интеллекту. Нейросети, подобно детям, абсорбируют информацию из текстов, аудио и визуальных материалов, и качество их «понимания» мира напрямую зависит от качества этих данных. Так же, как родители контролируют чтение своих детей, разработчики ИИ должны тщательно подходить к отбору обучающих материалов для своих моделей.

На текущем этапе развития алгоритмы машинного обучения требуют значительных объемов данных для обучения, превосходящих потребности человека в обучении. Несмотря на превосходство в вычислительной мощности, ИИ пока не может соперничать с человеческим мозгом в качестве создания текстов, восприятии мира и логическом мышлении.

Преодоление этих барьеров потребует значительных усилий от разработчиков. Оптимизация процесса обучения ИИ может уменьшить необходимость в огромных массивах данных и позволить избежать обучения на всем объеме интернет-контента.

Проблема загрязнения данных особенно актуальна для нейросетей, обученных на английском языке, из-за обилия доступных текстовых данных. Для языков с меньшим объемом контента эта проблема может быть менее выражена, что, в свою очередь, может привести к созданию более качественных локальных ИИ-моделей по сравнению с англоязычными.

Синтетические данные могут быть ценным ресурсом в условиях дефицита информации, но их полезность зависит от объема и качества данных, использованных при обучении, а также их соответствия задачам, этическим нормам и стандартам безопасности.

Перспективы и вызовы в развитии искусственного интеллекта

В ближайшем будущем компании, занимающиеся разработкой ИИ-сервисов на базе данных, генерируемых искусственным интеллектом, могут столкнуться с экономическими трудностями. Это связано с возможным снижением качества их продукции, что может вызвать недовольство клиентов и привести к отказу от использования таких сервисов. В ответ на это, разработчики ИИ должны будут найти способы поддержания и повышения качества своих моделей.

Рыночные механизмы могут способствовать саморегуляции, но важно также исследовать новые методы, которые позволят эффективно использовать синтетические данные. Необходимо принимать меры для предотвращения так называемого «нейроколлапса».

Одним из ключевых аспектов является разграничение между контентом, созданным человеком, и сгенерированным ИИ. Отбор данных для обучения моделей должен проходить с особой тщательностью. В этом контексте, ИИ-детекторы, способные распознавать сгенерированный контент, могут стать важным инструментом для очистки датасетов от искусственно созданных данных.

Компаниям, работающим в области ИИ, следует также разрабатывать методики для очистки датасетов от «шума», включая спам, рекламу и дублирующиеся тексты, что позволит улучшить качество обучающих данных.

Существует также радикальный подход, предполагающий приостановку дальнейшего развития языковых моделей, чтобы избежать ухудшения качества. Однако такой вариант может привести к устареванию технологий и потере актуальности нейросетей, что делает его маловероятным в текущих условиях развития технологий.

Поделитесь этой новостью
Комментарии (0)

Ваш адрес email не будет опубликован. Обязательные поля помечены *