«Несмотря на все технические преимущества американских вооруженных сил над противниками, они все еще изо всех сил пытаются противостоять дезинформации. Новое программное обеспечение, которое будет разработано для командования ВВС и специальных операций США, или SOCOM, может помочь изменить это», — сказал новая статья Defense One опубликовано 2 октября, буквально через день после анонса Primer’s многомиллионный контракт.
Гараффа сказал Политические неудачники Радио Спутник в четверг, что эта сделка, заключенная в целях борьбы с фальшивыми новостями, является частью «очень плохой тенденции к тому, чтобы ИИ [determine] что правда, а что нет ».
Сегмент начинается примерно с отметки времени 13:42
Фактически, создание ИИ для «чего угодно» [other] чем обобщение информации, которая затем должна быть рассмотрена человеком », — проблематично, — сказал Гараффа ведущим Бобу Шлехуберу и Мишель Витте.
Гараффа подчеркнул, что Primer — относительно небольшая компания, занимающаяся машинным интеллектом, но у нее есть крупные контракты с розничной корпорацией Walmart, ВВС США и In-Q-Tel, инвестиционным подразделением Центрального разведывательного управления США (ЦРУ).
Эми Хайнейке а также Шон Горли, бывшие сотрудники частной компании Quid, занимающейся разработкой программного обеспечения и услуг, участвуют в Primer, как и Брайан Раймонд, бывший офицер ЦРУ и бывший директор Совета национальной безопасности (СНБ) Ирака.
Говоря о Раймонде, Гараффа заявил, что «это человек, который имеет очень, очень тесные связи с правительством и разведывательным сообществом, будучи сотрудником СНБ».
«Я не доверяю ИИ проводить такой анализ реального мира в режиме реального времени, в том состоянии, в котором он находится», — сказали они.
Гараффа заявил, что они скептически относятся к способности Primer AI определить, например, действительно ли информация в конкретном сообщении в социальной сети «говорит правду».
«Это то, для чего это нужно ВВС. [The service] хочет, чтобы это было ситуационной осведомленностью на местах », — отметили они, отметив, что эта технология позже может быть принята рядом федеральных правительственных агентств, таких как Министерство внутренней безопасности США и его подагентство Иммиграционная и таможенная служба США.
«Они могли использовать это, чтобы отслеживать протесты, что они, вы знаете, делают, — подчеркнул Гараффа.
Есть также общая проблема доверия и того, как что-то считается фактом, а не вымыслом.
«После любой ситуации появляется много дезинформации, потому что люди пытаются выяснить, что произошло», — отметил Гараффа. «Некоторые из них законно вводят людей в заблуждение, но некоторые из них… люди сообщают о том, что они видели… и это оказывается неверным».
«Нет информации о том, как Primer решает какие-либо из этих вопросов, или о предвзятости, присущей разработке ИИ», — подчеркнули они.
«Помните, что эти алгоритмы разрабатывают люди. У людей есть предвзятость. У людей есть слепые зоны ».
Взгляды и мнения, выраженные в статье, не обязательно отражают точку зрения Sputnik.