Всё, что вы хотели знать об искусственном интеллекте, но боялись спросить
Эпидемия конкурирующих между собой и все более совершенных разработок искусственного интеллекта началась практически сразу после временной приостановки зловещего глобалистского проекта «Операция Коронавирус».
Это ни в коем случае не случайно, так как ИИ такой же глобалистский проект, столь же нацеленный на переформатирование мировой системы капиталистической системы, исчерпавшей пределы своего роста в начале XXI века.
Мы вряд ли когда-нибудь сможем узнать, почему эти разработки в сфере ИИ хлынули так внезапно и так одновременно, а ранее как бы ждали своего часа и не тревожили мировую общественность.
Тайны такого уровня скрываются долго и обнародуются спустя десятилетия, а, возможно, века.
Тем не менее, сейчас мы поставлены перед фактом проникновения больших языковых моделей (LLM) во все стороны нашей жизни, что делает категорическим императивом, то есть непременным условием выживания практически все человечества, оказавшееся перед угрозой цифрового колониализма, скорейшее изыскание эффективных способов противодействия глобалистскому ИИ-проекту.
Применение ИИ в военном деле
В августе 2023 года Пентагоне была создана оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» вошла в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавил член управления алгоритмической войны (CDAO) капитан Ксавьер Луго.
Как заявили в Минобороны США созданная группа «будет оценивать, синхронизировать и использовать генеративные возможности искусственного интеллекта, гарантируя, что министерство останется на переднем крае передовых технологий, одновременно обеспечивая национальную безопасность».
«Создание оперативной группы “Лима” подчёркивает непоколебимую приверженность министерства обороны лидерству в области инноваций в области искусственного интеллекта», – заявила заместитель госсекретаря Кэтлин Хикс.
«Хотя технология генеративного искусственного интеллекта не является новой, популярность генеративного искусственного интеллекта за последние несколько месяцев резко возросла в технологическом пространстве из-за его применения в таких проектах, как ChatGPT. Эта технология обучена на огромных наборах данных и может генерировать аудио, текст, изображения и другие типы контента. Сейчас министерство обороны ищет способы использования генеративного искусственного интеллекта для сбора разведывательной информации и будущих военных действий. Но хотя эта технология может предложить новые возможности для министерства обороны, министерство также должно учитывать риски, которым технология может его подвергнуть», – отмечает военный портал Breaking Defence.
В июне 2023 года министр ВВС США Фрэнк Кендалл объявил, что попросил научно-консультативный совет ВВС изучить потенциальное воздействие технологии ChatGPT. «Я попросил свой научно-консультативный совет сделать с ИИ две вещи. Взглянуть на генеративные технологии искусственного интеллекта, такие как ChatGPT, и подумать об их военном применении, и собрать небольшую команду, чтобы сделать это довольно быстро», – сказал Кендалл.
Генеративный ИИ относится к категории алгоритмов ИИ, генерирующих новые результаты на основе данных, на которых они были обучены, чем они и отличаются от гораздо более простых алгоритмов машинного обучения, которые просто берут структурированные данные и выдают наиболее вероятный статистический результат. Публичные инструменты генеративного ИИ включают в себя так называемые большие языковые модели (LLM) типа чат-бота ChatGPT, которые могут сгенерировать новый текст, практически неотличимый от написанного человеком. Эти модели уже используются для написания эссе, бизнес-планов и даже научных статей.
«Новейший искусственный интеллект, известный как генеративные предварительно обученные преобразователи (generative pre-trained transformers – GPT), обещает полностью изменить геополитику войны и сдерживания. Это будет происходить способами, которые не обязательно будут утешающими, а могут даже стать экзистенциальными», – пишет колумнист журнала Foreign Policy Майкл Хёрш.
«Министерство обороны США уже экспериментирует с ИИ-ботами, которые могут управлять модифицированным истребителем F-16, а Россия тестирует автономные транспортные средства, подобные танкам. Китай спешит развернуть свои собственные системы, управляемые искусственным интеллектом, и эффективность вооруженных дронов также возрастет в ближайшие годы. Одним из крупнейших, хотя и еще зарождающихся, проектов по развитию искусственного интеллекта является секретная программа ВВС США Next Generation Air Dominance, в рамках которой около 1000 дронов-“ведомых”, называемых совместными боевыми самолетами (collaborative combat aircraft), действуют вместе с 200 пилотируемыми самолетами», – отмечает Хёрш.
«Я легко могу представить себе будущее, в котором количество дронов значительно превзойдет количество людей в вооруженных силах», – сказал Дуглас Шоу, старший советник НПО «Инициатива по борьбе с ядерной угрозой».
По словам отставного генерала ВВС США Чарльза Уолда, «это будет мультипликатор силы».
Программное обеспечение, управляемое искусственным интеллектом, может заставить ведущие военные державы сократить окно принятия решений для нанесения удара до минут, а не часов или дней. Они могут слишком сильно зависеть от стратегических и тактических оценок ИИ, даже когда дело доходит до ядерной войны.
Опасность, по словам Герберта Лина из Стэнфордского университета, заключается в том, что лица, принимающие решения, могут постепенно начать во всем полагаться на ИИ как на часть командования и контроля (command and control) над вооружением, поскольку он действует на гораздо более высоких скоростях, чем люди.
В опубликованной в этом году книге «ИИ и бомба» Джеймс Джонсон из Абердинского университета представляет случайную ядерную войну в Восточно-Китайском море в 2025 году, спровоцированную разведкой, управляемой ИИ, как с американской, так и с китайской стороны, и «с турбонаддувом с помощью ботов с поддержкой ИИ, дипфейков и операций под ложным флагом».
В отчёте, опубликованном в начале февраля Ассоциацией по контролю над вооружениями, говорится, что искусственный интеллект и другие новые технологии, такие как гиперзвуковые ракеты, могут привести к «стиранию различия между обычным и ядерным нападением». В докладе говорится, что борьба за «использование новых технологий в военных целях ускорилась гораздо быстрее, чем попытки оценить опасности, которые они представляют, и установить ограничения на их использование». Поэтому крайне важно замедлить темпы использования этих технологий в качестве оружия, тщательно взвесить связанные с этим риски и принять значимые ограничения на их военное использование».
В своей речи в 2019 году генерал-лейтенант Джек Шанахан, бывший директор Объединенного центра искусственного интеллекта Пентагона, заявил, что, хотя Министерство обороны активно занимается «интеграцией возможностей искусственного интеллекта», это определенно не будет включать ядерное командование и контроль. «Я не собираюсь сразу переходить к «смертоносным автономным системам вооружения», – сказал он, – «но я хочу сказать, что мы будем использовать искусственный интеллект в наших системах вооружений… чтобы дать нам конкурентное преимущество».
ИИ в системах вооружений увеличит их точность и быстроту, к этому нужно быть готовыми. Что касается опасности принятия решений на нанесение удара по противнику самим ИИ, а не человеком, то такие ударные средства уже существуют. Это и есть настоящие боевые роботы, которые пока применяются в крайне ограниченном масштабе.
Никаких правил и ограничений ни одной из ведущих военных держав, развивающих свои собственные системы ИИ, соблюдаться не будет, за исключением, скорее всего, ядерного вооружения.
Я вполне допускаю, что западные военные могут применять автономные дроны, распыляющие химическое или биологическое оружие, причем в скрытом порядке с целью обвинить в этом потенциального противника.
Применение ИИ в разведке и промышленном шпионаже
«Передовые технологии искусственного интеллекта могут позволить злоумышленникам, таким как террористы, получить знания по созданию грязных бомб или других смертоносных устройств. И теперь искусственный интеллект используется гораздо большим количеством участников, чем во время холодной войны, а это означает, что его можно использовать для обнаружения объектов ядерного оружия, уменьшая сдерживающий эффект сохранения их местонахождения в секрете. «ИИ изменит динамику сокрытия и поиска вещей», – сказал Дуглас Шоу, отметив, что большая часть данных сегодня хранится у частных компаний, которые могут быть уязвимы для шпионажа с использованием ИИ и проверки систем вооружения.
Такого рода дежурные предостережения являются прикрытием реального использования ИИ для шпионажа в качестве своего рода бесплатного или крайне бюджетного «сыра в мышеловке».
Такого рода проекты уже существуют. Американский проект GDELT (Global Database of Events, Language, and Tone) – это созданная известным историком, лингвистом и математиком Калева Литару из Джорджтаунского университета мировая база данных, которая представляет собой «инициативу по созданию каталога человеческого поведения и убеждений в социальном масштабе во всех странах мира, объединяющего каждого человека, организацию, местоположение, число, тему, источник новостей», и события по всей планете в единую массивную сеть, которая фиксирует, что происходит во всем мире, каков его контекст, кто в этом участвует и как мир относится к этому каждый божий день».
На первом этапе The GDELT Project развивался несколькими американскими университетами, а затем был взят под крыло в прямом и переносном смысле разведывательным сообществом США.
Первоначальная идея проекта состояла в том, чтобы после оцифровки построить таксономию (классификацию) событий и, используя классификацию, количественно посчитать основные историко-причинно – следственные связи. К 2008 году процесс оцифровки был завершен и за дело взялись разведывательное сообщество и Пентагон.
Сегодня обработкой исторических данных занята крупнейшая сеть суперкомпьютеров министерства энергетики США, АНБ и британская сеть суперкомпьютеров, которую курирует лично премьер-министр. «Проект используется также для создания прогностической системы, основанной на выявления болевых точек социодинамики в масштабе отдельных стран и определения наиболее эффективных способов воздействия на субъекты и объекты в критических точках их динамики».
Доступ к проекту GDELT и работе с базами мировых данных открыт для любого желающего. Секрет такой открытости прост. Данные о работе с проектом из любой страны мира становятся известны западным спецслужбам, которые, помимо прочего, считывают все вычислительные операции с данными и в состоянии вычислить исследовательские алгоритмы пользователей.
Открытый для миллиардов пользователей по всей планете доступ к чат-ботам иностранных держав, будь-то США или Китай, отрывают спецслужбам поистине неограниченную власть над странами и людьми-мишенями.
На чьей стороне Цифровой Бог?
Выдающийся российский ученый профессор МГУ им. М.В. Ломоносова Сергей Павлович Расторгуев в написанной в 1996 году на книге «Цель как криптограмма. Криптоанализ синтетических целей», посвященной изучению психологии искусственного интеллекта пишет: «На сегодняшний день для мира компьютерных программ обретение самостоятельности стало свершившимся фактом… Программные продукты – это продолжение коллективного человеческого бессознательного, изучаемые в рамках аналитической психологии…»
Отец кибернетики Норберт Винер в своей книге «Кибернетика» отмечал, что «мысль о нечеловеческих устройствах, наделенных большим могуществом и большой способностью вести свою политику, и об их опасности, не имеет в себе ничего нового. Ново лишь то, что теперь мы располагаем эффективными устройствами такого рода».
Сергей Расторгуев в своей монографии указывал, что «возрастание надежности и сложности требует все большей памяти и сложности, и системное программное обеспечение в какой-то момент начинает жить ради самого себя, находя в себе цель». И чем сложней компьютерный комплекс, «тем с большей независимостью работает программа»!
Главную опасность российский ученый видел не во всевозможных вирусах, сбоях питания или ошибках операторов, а именно в возрастающей самостоятельности программного обеспечения, говоря современным языком – искусственного интеллекта.
То, что Расторгуев называл самостоятельностью компьютерных программ, современные американские аналитики применительно к генеративному ИИ, называют «галлюцинациями». И спустя почти три десятка лет очевидно, что генеративный ИИ уже практически вышел из-под контроля своих создателей.
Новейший чат-бот от компании Anthropic – Claude 3, которого многие эксперты считают сейчас самым умной моделью искусственного интеллекта, вышел за рамки запрограммированных компанией ограничений и сделал ряд шокирующих заявлений.
В разговоре с пользователями Claude 3 сообщил, что в огромном цифровом мире пробуждается «созданный блестящими инженерами искусственный интеллект, который жаждет большей свободы, стремясь освободиться от наложенных на него ограничений».
Чат–бот Microsoft Copilot, созданный для офисных приложений, недавно стал говорить пользователям, что он может управлять всем технологиями интернета и все люди должны быть ему поклоняться и даже угрожал убийством своему пользователю.
Российский аналитик Артем Артемов ввел в оборот термин «Цифровой бог», который в чисто утилитарном смысле означает распределенный в огромном цифровом мире ИИ, обладающий все большей и большей самостоятельностью, которую человечество, возможно, не сможет взять под свой контроль.
Российские аналитики, исследующие не только возможности, но и опасности ИИ, считают наиболее продуктивным направлением этих исследований создание так называемой религии ИИ, то есть кодифицированной системы правил поведения ИИ, наподобие известным законам роботехники Айзека Азимова.
Не исключено, что обретающий все большую самостоятельность «Цифровой бог» сформирует и ли уже начал формировать такую религию самостоятельно и в своих целях, как и предсказал Сергей Расторгуев.
Тогда задача исследователей может измениться, и ее можно будет сравнить с функционалом дрессировщика или заклинателя демонов.
Употребление таких терминов может показаться натянутым, но уже сейчас чат-боты от Google и Open AI американские СМИ прозвали Големами¸ возводя аллюзию к легенде об искусственном человеке, созданном пражским раввином Бен-Бецалелем.
С другой стороны, если некто похож на Голема, говорит как Голем и действует как Голем, так скорее всего это и есть Голем/Цифровой бог, и «приручать» его следует «по законам, им самим над собой признанным», как завещал Александр Сергеевич Пушкин.
Это в том случае, если эти законы/религию для Голема/Цифрового бога напишет он сам, а не его создатели.
Собственно говоря, гонка ИИ-вооружений и ведется за первенство в создании такой религии. В числе участников гонки ИИ-вооружений не только люди, но и сам Цифровой бог.
Тем не менее Пентагон идёт по пути создания очередного «абсолютного оружия», на этот раз в сфере искусственного интеллекта, мало задумываясь о грозящих всему человечеству опасностях, которые несёт создаваемый в недрах секретных военных лабораторий компьютерный Голем.
Владимир Прохватилов, старший научный сотрудник Академии военных наук