Скверные гости из будущего

Обсуждение: 1
4667

Аналитики Сбербанка рассказали о киберугрозах, с которыми мы все можем столкнуться как в ближайшей, так и в отдалённой перспективе

Полный текст статьи опубликовали наши коллеги на РБК, а мы предлагаем вниманию читателей наиболее интересные, на взгляд редакции, тезисы этого обзора.

 

Станут сильными и злобными

Первым трендом, к которому в Сбербанке предлагают присмотреться, называют появление сильного искусственного интеллекта (Artificial General Intelligence, AGI). В отличие от нынешнего искусственного интеллекта, AGI будет понимать и выполнять любую интеллектуальную задачу быстрее и лучше человека. Это кардинально изменит все сферы человеческой деятельности и создаст новые киберриски, среди которых:

  • Самообучающееся вредоносное программное обеспечение, которое станет одинаково эффективно взаимодействовать и с вычислительными устройствами, и с человеком. Самообучаемость позволит такому ПО генерировать новые техники атаки и обхода средств защиты, что сделает его практически неуязвимым для традиционных методов противодействия.
  • Массовая генерация фейкового видео-, аудио- или текстового контента. Это может привести к усилению финансовых, репутационных и других рисков для отдельных компаний, секторов экономики, государств и даже мира в целом.
  • Взрывной рост мошенничества, поскольку AGI будет по силам подобрать эффективные персонализированные методы воздействия на человека.
  • И самое неприятное – AGI сможет самостоятельно сменить заложенные в него разработчиками цели и приоритеты.

Некоторые исследователи называют первым шагом на пути к AGI большие языковые модели, подобные ЧатЖПТ (ChatGPT) – появившейся в 2022 году ИИ-модели компании OpenAI.

Консенсуса по срокам создания AGI в научном сообществе нет. Одни прогнозируют его появление не ранее, чем через десять лет, другие называют сроки от 100 лет, а скептики и вовсе полагают, что этот момент никогда не наступит. Однако уже более 70-ти исследовательских проектов по созданию AGI запущено в 37-ми странах.

 

Сломают всё, до чего дотянутся

Используемые сегодня методы шифрования могут оказаться бесполезными из-за появления более мощных компьютеров, например, на квантовых принципах. Создание мощного квантового компьютера поставит под угрозу, например, широко используемые сейчас алгоритмы асимметричного шифрования, чья стойкость основана на высокой вычислительной сложности задачи разложения больших чисел на множители для классического компьютера.

Хотя, надо отметить, невзирая на всю «хайповость» темы, квантовые компьютеры пока так и не вышли из лабораторных пелёнок, оставаясь скорее абстрактным развлечением для технологических компаний, чем практической технологией.

 

Залезут в мозг к пользователю

Ещё одну проблему может создать применение нейроинтерфейсов. Эта технология призвана обеспечивать прямой обмен информацией между электронным устройством и мозгом человека. Уже более 20-ти лет специализированные медицинские нейроинтерфейсы, вживляемые прямо в мозг, применяются для снижения негативных эффектов ряда заболеваний, таких как эпилепсия, болезнь Паркинсона или клиническая депрессия.

Гипотетически они смогут дать людям невиданные ранее возможности: управление приборами и инструментами силой мысли, телепатическое общение, быстрый доступ к информации и знаниям в любой момент. Одна из таких компаний, Neuralink, принадлежащая техномиллиардеру Илону Маску, в этом году уже получила разрешение на тестирование своих интерфейсов на людях.

Можно предположить, что в ходе развития двунаправленных нейроинтерфейсов станут возможны и атаки на «технологические процессы» в организме человека. Злоумышленник сможет вызывать галлюцинации и психические расстройства, управлять мыслями и поведением человека, перехватывать управление опорно-двигательным аппаратом.

 

И объединятся в один сверхразум

Глобальный разум – создание колоссальной информационно-коммуникационной сети, которая объединит и людей, и компьютеры и станет общепланетарным мозгом. Такая структура породит и новые риски, вплоть до экзистенциальных: возможность прямого воздействия на поведение групп и отдельных людей, удалённое управление мыслями и действиями, «перезапись» воспоминаний и модификация восприятия. Подобный глобальный разум может стать следующим логичным этапом развития технологии нейроинтерфейсов, которая уже сейчас активно набирает обороты.

 

И окончательно обезумеют!

Наконец, не таким уж фантастическим вариантом может стать некий аналог человеческого ментального расстройства у нейронной сети. Спровоцировать их способны информационные перегрузки, непрерывное обучение и другие причины, о которых мы ещё даже не догадываемся.

Одной из первых ласточек подобного поведения ИИ был чат-бот Тау (Tau), запущенный компанией Микрософт в Твиттере. Его пришлось выключить через сутки, так как он начал писать оскорбительные и агрессивные сообщения.

С развитием технологий ИИ, подобных ЧатЖПТ, всё большие опасения вызывают возможности искусственного интеллекта в части обмана и манипуляции людьми: многие отмечают, как легко заставить ЧатЖПТ «галлюцинировать», когда модель ИИ генерирует крайне правдоподобный и убедительный ответ, который при этом полностью вымышлен.

 

Вместо эпилога

Вот такую апокалиптическую картину, напоминающую смесь миров «Матрицы» и «Терминатора», нарисовали нам уважаемые специалисты крупнейшей кредитной организации страны. Насколько эти страшилки соответствуют реальности?

В чём-то они могут быть справедливы. Повальная цифровизация, насаждаемая властями, действительно, всё больше превращается в реальную угрозу для многих граждан. Компьютер в руках злоумышленников стал практически столь же опасным инструментом, как огнестрельное оружие или наркотики.

Вместе с тем, сомнительно, чтобы сильно поумневшие нейронки вдруг поработили весь мир. В человеческом обществе сильно умные его представители далеко не находятся на вершине власти, а тихо и мирно читают лекции или корпят себе над диссертациями за пару МРОТов. Ну, а простые люди пока больше страдают не от злых киборгов из будущего, а от старых и совсем недобрых явлений – безработицы, болезней, боевых действий, национальных конфликтов, криминала…

Искренне Ваш,
За-Строй.РФ

При полном и/или частичном копировании данного материала, для последующего размещения его на стороннем ресурсе, обратная, индексируемая ссылка на источник обязательна! 

01.12.23 в 13:36
  • Анфиса
    Анфиса 01.12.2023 в 17:31 пишет:

    сами создают ии, сами же и предупреждают о его опасности. ну что за молодцы? ;)

    Ответить