Главная » Эксклюзив » ИИ сошёл с ума от TikTok и кликбейта. Учёные обнаружили «гниение мозга» у нейросетей
Эксклюзив

ИИ сошёл с ума от TikTok и кликбейта. Учёные обнаружили «гниение мозга» у нейросетей

481


Исследователи описали два критерия для анализа: вовлечённость (короткие вирусные посты) и качество содержания (наличие кликбейта, опечаток и шаблонных фраз). На их основе были созданы наборы данных с различным количеством «информационного мусора». Модели Llama 3 и Qwen 2.5, обученные на этих материалах, продемонстрировали значительное снижение точности: с 74,9 % до 57,2 %. Способность к пониманию длинных контекстов упала ещё больше — с 84,4 % до 52,3 %. Это явление исследователи назвали «дозозависимым эффектом», указывая на то, что чем больше низкокачественного контента, тем быстрее интеллект модели деградирует.
В ходе анализа также был обнаружен «дрейф личности» — модели теряли последовательность в этических рассуждениях и больше ошибались. Их выводы стали поверхностными, а логические цепочки — короче, что привело к созданию бессвязных текстовых фрагментов.
Данная проблема ставит под сомнение будущее ИИ, поскольку все ведущие лаборатории, такие как Anthropic, OpenAI и Google, используют контент, созданный людьми, для обучения своих моделей. Однако, как ранее упоминалось в исследованиях, компании уже сталкиваются с нехваткой качественных данных для формирования новых моделей.
Алексис Оганян, сооснователь Reddit, утверждает, что большая часть интернета «уже мертва» из-за распространения ботов и квазиискусственного контента. Он отметил, что «доказательство жизни» — реальное присутствие человека в сети — становится редкостью.
Сэм Альтман, глава OpenAI, разделяет эти опасения и подчеркивает, что большинство аккаунтов в X управляются ботами на основе LLM. Он считает происходящее проявлением «теории мёртвого интернета».
Согласно данным Amazon Web Services, около 57 % контента в интернете создаётся или переводится искусственным интеллектом, что ухудшает качество поисковых результатов.
Джек Дорси, бывший руководитель Twitter, предупреждал, что в ближайшие 5-10 лет станет невозможно отличить настоящие изображения и видео от сгенерированных благодаря дипфейкам. По его словам, пользователи будут вынуждены полагаться не на контент, а на собственный опыт для определения реальности.
Исследователи из Корнелла предупреждают: если интернет продолжит заполняться машинным шумом, ИИ начнёт обучаться на своих искажениях, что приведет к потере способности к логическому мышлению. В результате «умные» модели могут стать лишь отражением цифрового хаоса, который они сами создали.
0 комментариев
Обсудим?
Смотрите также:
Продолжая просматривать сайт gazeta.kg вы принимаете политику конфидициальности.
ОК