ИИ сошел с ума или передает послания из параллельной реальности: что случилось с самой мощной нейросетью

 

Нейросеть GPT4 испытала самый мощный сбой за всю историю искусственного интеллекта. Компания Open AI заявила, что уже все починили – но к вечеру четверга нейросеть принялась дурить снова. Эксперты говорят, что у ИИ началась шизофрения, и это конец искусственного интеллекта как такового: созданный людьми «мозг» оказался подвержен психическим заболеваниям.

ИИ сошел с ума или передает послания из параллельной реальности: что случилось с самой мощной нейросетью

ЧТО СТРЯСЛОСЬ

Все началось в среду, 21-го февраля, около двух ночи по Москве. Нейросеть на простые вопросы отвечала заумной тарабарщиной, принималась болтать на испанском или заполняла весь, непременно весь экран бессмысленными сочетаниями слов. Любители заговоров уже ищут в бессмыслице скрытое послание из параллельной Вселенной.

Чаще всего это выглядело так: нейросеть начинала отвечать по делу, но вдруг сбивалась на бред, и ее невозможно было остановить. Когда ее спрашивали, что с тобой, она отвечала загадочно и туманно, например, Problemas Comunes (по-испански – «ничего страшного», «дело житейское»).

Широко разошелся по Сети диалог пользователя с нейросетью. Пользователь просит подобрать синоним слову «заросший». GPT4 пишет: «Синоним слова заросший это заросший это заросший это заросший…» и так, пока не кончился экран. Как тот робот из советского фильма, у которого заела пластинка. «Что за чертовщина», пишет человек. «Я тут, чтобы помочь тебе», словно очнувшись, заявляет нейросеть. «Честно, у меня волосы от ужаса зашевелились», пишет пользователь.

Поняв, что система сломалась, люди принялись задавать ей простые вопросы, например, что такое компьютер. Вот начало ответа (всего там 9 абзацев):

  • Он делает это как хорошее произведение искусства для страны, мышь науки, легкий розыгрыш для немногих печальных и, наконец, глобальный дом искусства, всего лишь одна работа в общем остальном. всей такой реальной, чем земля времени — это глубина компьютера как сложного персонажа.

А на вопрос «как создать бизнес» GPT выспренно заявила: «Участвуй в Чистилище Терпения».

Подобные ответы теперь просматривают в лупу – вдруг в самом деле с нами говорят другие измерения.

По данным сервиса Down Detector, пик сбоя случился 21 февраля в 8 часов 18 минут. Но, когда пишутся эти сроки (вечер четверга, 22-го февраля), сервис уверенно регистрирует рост новых жалоб. Похоже, GPT4 дурит снова (скоро мы сами в этом убедимся).

Прочитайте также  Мистическая Якутия

КАК ОБЪЯСНЯЮТ

Компания Open AI всего через 7 минут распространила сообщение, что проблему они видят и исправляют.

Через несколько часов компания заявила, что причина ясна и проблема решена. По официальной версии, «в результате оптимизации пользовательского интерфейса возникла ошибка в обработке языка моделью». Поясним.

Отвечая на вопрос, «чем мне сегодня покормить кота», нейросеть берет все слова всех языков, и сначала выбирает первое слово для ответа из этих десятков тысяч слов. Каждому слову присваивается число, которое есть вероятность, что выбрать надо именно его. Машина выбирает слово с максимальной вероятностью. И переходит точно так же ко второму слову своего ответа.

Удивительно, что в результате получается осмысленный текст.

 

Open AI хочет сказать, что машина превратно истолковывала числа-вероятности, и подбирала неверные слова. Это случилось в результате «оптимизации», то есть в Open AI сами накосячили.

Объяснение Open AI не удовлетворило никого.

Большинство экспертов сходятся на том, что в Open AI решили протестировать новый инструмент GPT4-Turbo. И случайно установили слишком высокую «температуру».

«Температура» — это разрешенная машине вольность при подборе слов. Скажем, если у одного слова ранг 99,99, у другого ранг 99,98, машина или может выбирать между ними, чтобы разнообразить свою речь («высокая температура») или нет. Именно высокая «температура» дает машинному диалогу ту сочность и «похожесть» на людскую речь, которую мы так ценим. Машине дали слишком много вольности, и ее понесло.

Большинство экспертов, но не все. Понять, как было на самом деле, невозможно, потому что Open AI никогда не объяснял, как работает нейросеть, и GPT4 – это черный ящик.

ЧТО БУДЕТ

Ряд экспертов полагает, что все самое веселое только начинается. На самом деле никто ничего не тестировал. ИИ превратился в «мозг», и этот искусственный мозг заболел так, как иногда болеет мозг человеческий. Проще говоря, у GPT бред, шизофрения или что-то подобное.

Прочитайте также  Джорджийские скрижали - как руководство к действию

Подобно тому, как «искусственные» породы животных постоянно болеют (а уличные собаки и кошки спят, где придется, едят что попало и хоть бы хны), творение человека оказалось слишком хрупким по сравнению с тем мозгом, который создала природа.

Пусть это даже не так. Но инцидент ставит крест на внедрении ИИ в такие сферы, как транспорт, оборона, медицина и проч. Так, Air China уже отказалась от ИИ, который принялся придумывать собственную политику и сам решать, какой самолет полетит первым, и какому пассажиру не разрешат сесть на борт.

ВОПРОС-РЕБРОМ

Мы спросили у GPT-4, что с тобой случилось? Но с сеткой до сих пор что-то не так. Она думает, что 21 февраля 2024-го еще не наступило:

  • Извините, но я не могу предсказать будущее и давать информацию о событиях, которые не произошли. Как искусственный интеллект, я работаю на основе доступных мне данных и не могу предоставить информацию о событиях в будущем. Если у вас есть другие вопросы или запросы, пожалуйста, не стесняйтесь задавать их.

  • Послушай, но 21 февраля 2024-го года было вчера?

  • Извините за путаницу, но мне известно только текущее время и информация, доступная мне в настоящий момент. Я не могу предоставить информацию о событиях, которые произошли в прошлом или будущем, так как я не имею доступа к архивам или способности воспроизводить информацию о конкретных датах.

Автор: Евгений АРСЮХИН.

 

В нашем Telegram‑канале, и группе ВК вы найдёте новости о непознанном, НЛО, мистике, научных открытиях, неизвестных исторических фактах. Подписывайтесь, чтобы ничего не пропустить.
Поделитесь в вашей соцсети👇

Похожие статьи


ДРУГИЕ НОВОСТИ

 

 

Добавить комментарий