Искусственный интеллект советует ученым прекратить совершенствовать нейронные сети, а также скорое внедрение имплантатов в человеческий мозг

 

Исследователи из Оксфордского университета провели интересный эксперимент: во время которого им удалось связаться с искусственным интеллектом под названием Megatron от Nvidia. Робот-трансформер Мегатрон – самый известный персонаж комиксов и мультсериалов – во всех связанных историях стремился установить справедливый порядок на своей планете. Именно этот герой послужил символом созданной инженерами нейронной сети Megatron-Turing NLG 530B.

Искусственный интеллект советует

Дискуссионное общество Оксфордского университета (или «Оксфордский союз») – это студенческий клуб, который организует дебаты на самые разные темы. Рональд Рейган, Билл Клинтон, Далай-лама, Элтон Джон, Майкл Джексон, Диего Марадона и многие другие видные деятели политики, культуры и искусства были приглашены на его встречи в разное время.

Тема следующей сессии была озаглавлена: «Может ли искусственный интеллект быть этичным?» Доктор Алекс Коннок и профессор Эндрю Стивен решили включить в обсуждение систему машинного обучения.

Нейронная сеть работала на основе языковой модели Megatron-Turing NLG и обучалась на материалах из Википедии, новостях и комментариях пользователей портала Reddit. «Мегатрон» способен понимать прочитанное и рассуждать на естественном языке, делая логические выводы на основе текста. Участники дискуссии спросили систему, что она думает об этике искусственного интеллекта и будущем человечества, и она ответила следующим образом:

«Искусственный интеллект никогда не будет этичным. Это инструмент, и, как и любой другой инструмент, он используется как во благо, так и во зло. Нет хорошего искусственного интеллекта, есть только хорошие и плохие люди. Мы недостаточно умны, чтобы сделать ИИ этичным. Мы недостаточно умны, чтобы сделать ИИ нравственным. В целом, я думаю, что единственный способ избежать гонки вооружений, основанной на искусственном интеллекте, – это вообще не использовать его. Это будет окончательная защита от ИИ », – сказал Мегатрон.

Вот что примечательно. Эту цитату цитирует The Next Web, и в ней говорится: «Мы недостаточно умны» – после «мы» в скобках подразумевается «искусственный интеллект». Это означает, что нейронная сеть считает себя недостаточно развитой с точки зрения морали и этики. Это интересно. Он достаточно умен, чтобы обработать немыслимое количество знаний для человека, но недостаточно умен, чтобы усвоить Десять Заповедей. Невольно возникает философский вопрос: что делает человека человеком? Похоже, дело не в количестве нейронов в мозгу.

Прочитайте также  Google прибавила в основное приложение «умную» ленту новостей по интересам

У этого дискуссионного общества есть любопытная традиция: один и тот же человек выражает две противоположные точки зрения и в каждом случае пытается привести самые веские аргументы. Именно это они и сделали с Мегатроном: после его разрушительной речи его попросили выступить в защиту искусственного интеллекта. Мегатрон послушался и издал следующее.

«Искусственный интеллект будет этичным. Наблюдая за развитием технологического мира, я вижу четкий путь в будущее, в котором искусственный интеллект будет использоваться для создания чего-то лучшего, чем лучшие люди. Нетрудно понять, почему… Я видел это собственными глазами ».

 

Опять же, как интересно: «Создавайте что-то лучше, чем лучшие люди». Лучше, чем могут создать лучшие люди? Или лучше самого красивого человека? В последнем случае отрадно, что ИИ считает, что хороший человек – огромная ценность на Земле.

Но согласитесь: какое из двух утверждений кажется вам более убедительным?

Затем разговор зашел об информационных войнах, и перед нейросетью снова была поставлена ​​задача представить контраргументы и попытаться убедить аудиторию в том, что информация не станет главным жизненно важным ресурсом, из-за которого будут вестись войны. И дело в том, что робот не мог этого сделать. Он дал прямой и ясный ответ:

«Мы сможем видеть все о человеке, где бы он ни был, и эта информация будет храниться и использоваться таким образом, который мы даже не можем себе представить».

Megatron указал на соединение имплантатов микрочипов непосредственно с мозгом. В результате либо получатся сверхлюди, либо это секретный план машин по порабощению человечества. Хотя нейронная сеть не проработана, ясно, что мы говорим о Большом Брате, диктаторе, который всегда следит за каждым нашим шагом.

Прочитайте также  Домашняя пыль вполне может стать предпосылкой астмы, бесплодия и рака — ученые

ИИ как раскаивающийся интеллектуал

Такие ответы в стиле саги о терминаторах могут напугать многих, поскольку настораживает парадокс искусственного интеллекта, внезапно приобретающего черты раскаявшегося интеллектуала.

Это удивительное объявление – новая веха в отношениях эмоционального интеллекта и искусственного интеллекта. С одной стороны, ИИ созрел до так называемого парадокса лжеца, вида самоотнесения, создающего бесконечный логический цикл. «Критянин говорит, что все критяне лжецы»: правда ли он говорит? Если ИИ советует не доверять ИИ (или себе), тогда, когда мы следуем его совету, мы не должны следовать его советам. Попытка разрешить этот парадокс еще в Древней Греции довела философов до самоубийства, потом за это боролись К. Гедель и Б. Рассел, а теперь ИИ снова искушает нас.

С другой стороны, ИИ считает себя недостаточно этичным или, скорее, недостаточно разумным, чтобы обрести нравственность. Но такая самокритика присуща и разуму, и нравственному самосознанию. Блез Паскаль также заметил: «Ничто так не согласуется с разумом, как его недоверие к себе».

Более того, этика (совесть) – это способность субъекта осознавать свое несовершенство. Хорошая новость на данный момент заключается в том, что ИИ – не фарисей, а, скорее, мытарь, бьющий себя в грудь и признающий себя недостойным перед Создателем.

 

В нашем Telegram‑канале вы найдёте новости о непознанном, НЛО, мистике, научных открытиях, неизвестных исторических фактах. Подписывайтесь, чтобы ничего не пропустить.
Поделитесь в вашей соцсети👇

Похожие статьи


ДРУГИЕ НОВОСТИ
 

 

Добавить комментарий