Риски ИИ (локальные и глобальные). Часть 3. Деградация качества ИИ-моделей

Друзья, коллеги, хотел бы продолжить размышления о рисках, связанных с активным внедрением искусственного интеллекта.
Еще раз повторюсь - я не противник ИИ и вижу в нём огромный потенциал прикладного использования, но вижу и определенные тревожные тренды и тенденции, о чем и хотелось немного поговорить.
Сегодня хотел поднять вопрос деградации ИИ моделей, обучающихся на данных, созданных другими ИИ.
На данный момент, в интернете заметно растет доля синтетических (созданных ИИ) текстов, изображений и аудио. И если новые модели учатся в на таких данных, возникает феномен «схлопывания данных» (data collapse).
Ошибки, упрощения и искажения переносятся из одного поколения информации в другое, закрепляясь и усиливаясь. Это можно сравнить с копированием фотографии на ксероксе - каждое новое поколение чуть хуже предыдущего. Чем больше копий - тем хуже качество
Почему это опасно и к чему это может вести:
Потеря разнообразия, наследование ошибок (когда ложная информация закрепляется как норма), иллюзия качества (когда модели могут казаться умнее, чем есть на самом деле) - все это, скорее всего, неизбежные последствия данного феномена
Ну а если, размышлять об этой проблематике, в контексте областей, где очень высокая ответственность и риски (медицина, наука и т.д) - становится понятно, что необходимо весьма ответственно и серьезно подходить к применению ИИ-элементов в практике
Можно ли каким-то образом купировать или решить данную проблему?
Мне видится, что без внедрения единообразной разметки создаваемой информации, всеми ИИ-платформами (реально ли это?), проблема выглядит не очень решаемой.
Т.е если, создаваемая ИИ и людьми информация, не будет маркироваться определенными отличными друг от друга способами - все вышеперечисленные проблемы “многократного копира” (на мой взгляд) будут скорее всего неизбежными
Что вы думаете на эту тему? Найдется решение данной проблематики или нас ждет неизбежное “выхолащивание” результативности ИИ?
Ранее по теме:
Риски ИИ (локальные и глобальные). Часть 1. Черный ящик
Риски ИИ (локальные и глобальные). Часть 2. Цена интеллектуального удобства
Картинка в материале сгенерирована ИИ
Комментарии 3
Авторизуйтесь чтобы оставить комментарий
Акжунис Амиркул · Авг. 15, 2025 16:54
А вдруг «выхолащивание» — это не баг, а новый этап эволюции ИИ, когда мы сами перестанем понимать его «логику»?
Виталий Ермоленко · Авг. 16, 2025 14:15
Мне видится, что это в некотором роде неизбежный (скорее временный) "откат" качества технологии. Для дальнейшего развития, необходимо внедрение новых технологий разметки данных. Иначе, ИИ нагенерит море контента и сам же на его основе будет делать выводы, создавать новый контент, т.е уходить в некотором роде в сторону (т.к термин интеллект в определении ИИ - пока весьма далек от истинного смысла этого слова)
Акжунис Амиркул · Авг. 15, 2025 16:53
Это очень похоже на эффект “сломанного телефона” в цифровом масштабе. Вопрос в том, кто и на каком уровне возьмет на себя роль «первого источника» для ИИ.