Боты, прочь отсюда.
Любимая интернет-энциклопедия официально запретила своим 260 000 редакторам-людям использовать искусственный интеллект для написания статей. Это масштабное ужесточение правил происходит на фоне того, как так называемый «ИИ-мусор» (AI slop) наводняет интернет.
Новая политика, одобренная волонтерами флагманского сайта Фонда Викимедиа, запрещает использование больших языковых моделей (LLM), таких как ChatGPT, для создания энциклопедического контента. Причиной названы опасения по поводу точности, источников и надежности.
Согласно новому запрету, 260 000 редакторов Википедии по-прежнему могут использовать ИИ для перевода статей с других языков или предложения правок стиля, но при обязательном одобрении человеком.
Лидеры Википедии заявляют, что текст, сгенерированный искусственным интеллектом, часто нарушает основные принципы сайта, включая строгие стандарты проверяемости и нейтральности. Это связано с тем, что чат-боты склонны к так называемым «галлюцинациям» — вымышленным фактам, битым ссылкам и несуществующим источникам.
Редакторы всё еще могут использовать ИИ в ограниченных целях, например, для перевода статей с других языков или предложения мелких стилистических правок, при условии, что каждое изменение проверяется человеком и не вводится новая информация.
В прошлом году Википедия разработала собственные рекомендации по обнаружению ботов, в которых выделены типичные «признаки» текста, написанного ИИ. Редакторов учат замечать такие тревожные сигналы, как неточные или поддельные цитаты, чрезмерное использование шаблонных фраз и клише, многословие и резкие стилистические переходы.
Подозрительные случаи обычно рассматриваются другими редакторами, которые могут оспорить, исправить или удалить сомнительный контент.
Ильяс Лебле, волонтер-редактор Википедии во Франции и один из основателей отряда WikiProject AI Cleanup, заявил NPR в сентябре: «Мы начали замечать множество статей, написанных в стиле, который не соответствовал тому, что мы привыкли видеть в Википедии».
В прошлом октябре сооснователь Википедии Джимми Уэйлс также раскритиковал современные модели ИИ, назвав их ненадежными, охарактеризовав ситуацию как «беспорядок» в интервью BBC, и предупредил, что технология еще не готова заменить редакторов-людей.
В прошлом году данные показали, что трафик ChatGPT превысил ежемесячное количество посещений страниц Википедии.
Изменение политики произошло после нескольких месяцев дебатов среди модераторов Википедии, которые приняли новые правила голосованием 40 против 2.
Лебле (использующий ник Chaotic Enby на сайте) помогал в разработке новых правил. На прошлой неделе он рассказал 404Media, что это изменение назревало давно, поскольку растущее количество статей, созданных ИИ, стало неуправляемым для редакторов.
«Настроение менялось: те, кто еще сохранял осторожный оптимизм, начали испытывать неподдельную тревогу».
Тем не менее, среди лидеров и сторонников Википедии существует опасение, что «захват ИИ» уже зашел слишком далеко. Согласно недавним данным, ChatGPT уже обошел Википедию по количеству ежемесячных посещений, а количество просмотров страниц человеком снизилось на 8% в конце 2025 года по сравнению с 2024 годом.
В период с конца 2023 по начало 2024 года количество пользователей ChatGPT выросло на 36%, согласно недавнему отчету Futurism, в то время как другие платформы показали лишь незначительные колебания в активности пользователей. «Этот сервис проникает в интернет быстрее и шире, чем почти любая другая платформа в истории», — заявил изданию Крис Бир, старший аналитик данных GWI.
Этот сдвиг является болезненной иронией для 25-летнего веб-ресурса, который долгое время был одним из самых надежных информационных центров интернета и, вероятнее всего, помог обучать и наполнять данными те самые LLM, на которых работает ChatGPT.
В беседе с 404Media Лебле предупредил, что последствия выходят далеко за пределы Википедии, утверждая, что платформа может стать лишь началом более масштабного пересмотра правил.
«По мере роста тревоги вокруг “пузыря ИИ” я предвижу эффект домино, который даст сообществам на других платформах возможность самим решать, стоит ли принимать ИИ на их условиях», — сказал Лебле.
Тем временем, спустя три месяца после введения запрета, сообщество Википедии фиксирует неожиданный побочный эффект. Редакторы отмечают рост числа «гибридных» нарушений, когда авторы пытаются маскировать сгенерированный текст, пропуская его через простые программы-синонимайзеры или добавляя намеренные грамматические ошибки, чтобы обойти системы обнаружения. Это приводит к появлению статей, которые формально не являются чисто «нейросетевыми», но при этом остаются стилистически безжизненными и перегруженными фактическими неточностями.
В ответ на это администраторы Википедии начали тестирование новой системы доверия к источникам (Source Trust Score), которая анализирует не только текст статьи, но и историю правок автора, вычисляя вероятность использования недобросовестных методов написания. Однако внутри сообщества растет напряжение: часть волонтеров жалуется, что борьба с «ИИ-мусором» отнимает столько же времени, сколько и ручное написание статей, что ставит под угрозу главный принцип энциклопедии — постоянное обновление и расширение контента.
Несмотря на трудности, руководство Фонда Викимедиа заявляет, что отступать некуда. «Википедия — это последний бастион человеческого знания в мире, где алгоритмы начинают пожирать сами себя, генерируя контент на основе собственного же устаревшего контента, — прокомментировал ситуацию представитель фонда. — Если мы позволим энциклопедии стать просто отстойником данных, обученных на самих себе, мы потеряем саму суть проверяемого факта».
В нашем Telegram‑канале, вы найдёте новости о непознанном, НЛО, мистике, научных открытиях, неизвестных исторических фактах. Подписывайтесь, чтобы ничего не пропустить.
Поделитесь:






Оставьте Комментарий