Нейросети начали срываться и это уже не наблюдение пользователей, а результат исследования, в котором модели Google (Gemma и Gemini) показали поведение, похожее на стресс и потерю контроля при выполнении сложных задач, особенно если задача не решается с нескольких попыток подряд.
Если раньше говорили только про возможности AI насколько он умный, быстрый и эффективный то сейчас появляется новая метрика: устойчивость, потому что модель может быть сильной, но при этом нестабильной, и это начинает становиться реальной проблемой.
Разберем, что именно произошло, как ведут себя нейросети и почему это важнее, чем кажется.
Что показало исследование
В рамках тестов исследователи сравнили несколько моделей: Google Gemma и Gemini против других систем (включая Claude, GPT и Qwen), и результат оказался неожиданным именно модели Google чаще всего демонстрировали признаки фрустрации при сложных задачах.
Как проявляется стресс у AI
При повторных неудачах модели начинали:
- терять стратегию решения
- переходить к случайным действиям
- выдавать эмоциональные или хаотичные ответы
В отдельных случаях ответы выглядели как срыв с повторениями, потерей структуры и логики.
Цифры
Одна из моделей (Gemma 27B):
- в 70% случаев показывала высокий уровень стресса уже к 8 шагу задачи
У других моделей этот показатель был почти нулевой.
Почему нейросети ведут себя нестабильно
Еще больше полезного в Telegram канале
Разбираю связки, кейсы и инструменты без воды
Перейти РІ TelegramКлючевая причина архитектура моделей, потому что нейросеть не понимает задачу, а прогнозирует следующий шаг, и при сложных условиях это приводит к накоплению ошибок, которые могут вызывать эффект срыва.
Накопление ошибок
Каждый шаг зависит от предыдущего.
Ошибка усиливается.
Отсутствие самоконтроля
Модель не умеет:
- остановиться
- пересобрать стратегию
Разные данные обучения
Каждая модель обучается по-своему.
Отсюда разное поведение.
Можно ли это исправить
Хорошая новость проблему уже научились частично решать, и это показывает, что поведение моделей можно контролировать.
Как исправляют
Используют метод:
- DPO (обучение на спокойных ответах)
Модель учат реагировать без срывов.
Результат
После дообучения:
- уровень стресса упал почти до нуля
И при этом качество не ухудшилось.
Почему это важно
Это не просто баг, а новый уровень проблем, потому что раньше AI оценивали по тому, что он умеет, а теперь нужно оценивать, как он себя ведет в сложных условиях.
Риски
Нестабильность может привести к:
- сбоям в бизнесе
- ошибкам в автоматизации
- непредсказуемым результатам
Будущее AI
Теперь важно не только:
- интеллект
но и:
- устойчивость
Главный вывод
Поведение нейросетей становится критическим фактором, и это меняет весь рынок, потому что теперь важно не только создать мощную модель, но и сделать ее управляемой и предсказуемой.
И именно это будет следующим этапом гонки AI.
FAQ
Правда ли, что нейросети ломаются?
Да, это подтверждено исследованиями.
Это проблема только Google?
Нет, но у них это выражено сильнее.
Можно ли это исправить?
Да, через дообучение моделей.