Искусственный интеллект сошел с ума после обучения на данных, которые сгенерировал сам
Американские исследователи обнаружили проблему в генеративных моделях вроде ChatGPT или Midjourney. Те нейросети, которые обучаются на данных, сгенерированных самим искусственным интеллектом, имеют тенденцию «сходить с ума» уже после пяти циклов обучения.
![](http://d12yticwcnhwc8.cloudfront.net/img/w840d4webp1/photos/z_2023_07/2023-07-13191251-xkfnn.jpg.webp)
Термин MAD (Model Autophagy Disorder), используемый исследователями, описывает процесс того, как качество результатов ИИ деградирует при таком обучении. На рисунке — пример ухудшения изображений на 5, 7 и 9 циклах генераций изображений.
Комментарии