Мозг и искусственный интеллект: как нейросети учатся понимать речь как человек
Учёные из Колумбийский университет, IBM Research и Feinstein Institutes for Medical Research совершили важное открытие: человеческий мозг и современные рекуррентные нейросети (RNN), обученные распознаванию речи, обрабатывают звук почти одинаковым образом.
Исследование, опубликованное в журнале Nature Machine Intelligence, стало одной из первых попыток напрямую сопоставить внутренние состояния ИИ и активность мозга человека на разных этапах обработки речи. Для эксперимента 15 пациентов с эпилепсией получили временные электроды в слуховую кору, что позволило детально наблюдать, как мозг реагирует на звуковые стимулы. Пациенты слушали аудиорассказы общей длительностью 30 минут, в то время как нейросеть обрабатывала те же записи.
Этапы обработки: от звука к смыслу
Анализ показал, что мозг и RNN проходят идентичную последовательность обработки:
- Базовые акустические характеристики – мозг и ИИ сначала распознают фундаментальные звуковые элементы, такие как частота, громкость и тембр.
- Фонетические признаки – следующий уровень обработки включает различение слогов и фонем.
- Слова – на этом этапе формируются отдельные слова и их фонетическая структура.
- Смысловые конструкции – наконец, система извлекает значение и смысл фраз и предложений.
При этом топографическая организация информации в RNN совпадала с иерархией корковых областей человека: от первичной слуховой зоны до областей, отвечающих за понимание языка. Учёные отмечают, что это демонстрирует эволюционную и функциональную эффективность подхода: как мозг, так и искусственный интеллект, независимо друг от друга, пришли к схожему алгоритму «звук — смысл».
Почему это важно
Главный акцент авторов исследования заключается в том, что они использовали именно рекуррентные сети, которые обрабатывают речь последовательно, как мозг, а не трансформеры, способные одновременно анализировать тысячи токенов. Такой подход позволил напрямую сопоставить этапы обработки и выявить точные совпадения между ИИ и мозгом.
Кроме того, сходство проявлялось только при обучении сети на конкретном языке, что напоминает процесс освоения родной речи у человека. Это открывает новые перспективы для когнитивной науки: теперь ИИ можно использовать как «прозрачную модель» для изучения работы мозга.
Вопросы, которые остаются
Несмотря на впечатляющие результаты, исследователи подчёркивают, что многое остаётся непонятным.
Например:
- Почему языковые функции у человека асимметричны и доминируют в левом полушарии?
- Можно ли создать ИИ с «двойным путём» обработки информации для более сложных коммуникационных задач?
- Как мозг и ИИ обрабатывают второй язык, и можно ли с помощью таких моделей выявлять механизмы нарушений речи?
Как отмечают эксперты, речь — это не только механическое распознавание слов. «ИИ может анализировать сигналы и имитировать этапы обработки, но он не понимает смысла, как человек», — подчёркивает один из комментаторов исследования. И всё же функциональное сходство даёт уникальную возможность изучать когнитивные процессы и улучшать технологии распознавания речи.
Реакция общества и будущие перспективы
Публикация вызвала широкий резонанс. В сети появились как восторженные комментарии: «В будущем ИИ сможет заменить нам мозги», так и скептические: «ИИ жонглирует словами, но смысла не понимает».
Учёные уверены: дальнейшее изучение этих процессов позволит не только совершенствовать технологии ИИ, но и глубже понять сам человеческий мозг. Особенно интересным станет изучение двуязычия и расстройств речи, где модели ИИ могут стать «лабораторией» для проверок гипотез о работе мозга.
Ранее журналисты сайта «Пронедра» писали, почему люди стали заменять друзей нейросетями