Ad coverAd cover
Economist logo
Новости

Искусственный интеллект давно таит угрозу - можно ли защититься от рисков его агрессивного развития?

Photo by <a href="https://unsplash.com/@possessedphotography?utm_source=ghost&utm_medium=referral&utm_campaign=api-credit">Possessed Photography</a> / <a href="https://unsplash.com/?utm_source=ghost&utm_medium=referral&utm_campaign=api-credit">Unsplash</a>
Photo by <a href="https://unsplash.com/@possessedphotography?utm_source=ghost&utm_medium=referral&utm_campaign=api-credit">Possessed Photography</a> / <a href="https://unsplash.com/?utm_source=ghost&utm_medium=referral&utm_campaign=api-credit">Unsplash</a>

Лидеры крупнейших технологических компаний, такие как глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк высказались против развития искусственного интеллекта (ИИ). Они возглавляют группу тех, кто подписал открытое письмо с призывом заморозить на шесть месяцев разработку систем ИИ. Казалось бы, что именно их бизнес стремительно обогащается, включая и наращивая все больше и больше функций ИИ. Есть ли здесь подвох? Или технологические магнаты действительно видят опасность в развитии искусственного интеллекта?

В настоящее время продукты ИИ уже входят во многие сферы деятельности человека, включая исследования в области здравоохранения, маркетинга и финансов. Стремительно развиваясь, ИИ начинает выполнять даже те задачи, которые требуют живого человеческого общения. Например, чат-боты, способные понимать вопросы и давать ответы, используя нужный голос и не только!

В недавно опубликованном отчете инвестиционного банка Goldman Sachs содержится предположение, что искусственный интеллект сможет справляться почти с половиной задач в административной сфере и юриспруденции, заменив собой порядка 300 млн рабочих мест. При этом, если ИИ будет способен выполнять до 46% задач в административном секторе и до 44% — в юриспруденции, то автоматизировать работу в строительной отрасли или техническом обслуживании он способен только на 6% и 4% соответственно. 

К примеру, даже такая с виду обычная профессия, как продавец, сейчас переходит в виртуалую сферу - и нужно уметь заказать через сайт (тот же Таобао или Алиэкспресс), провести оплату онлайн и продать также через другой сайт. 

Иными словами, ИИ несет в себе угрозу в первую очередь для более старшего поколения. Угнаться за новыми технологиями и применять их функции в жизни им гораздо сложнее. Они не могут быстро обучиться новым программам, не рискуя финансово, тем более конкурировать в поиске более эффективных работ на рынке труда. Невольно вспоминается выражение Остапа Бендера: "Мы чужие на этом празднике жизни", то есть в эпоху машин с ИИ.

Более того, вся эта  компьютеризация и цифровизация делает их легкими жертвами кибермошенников, которые пользуясь доверчивостью, крадут их персональные данные и деньги.  С развитием новых технологий, даже ординарные хакеры сейчас находят все более и более изощренные способы наносить кибератаки на массовое население. И каждым годом число краж только растет.

Форбс сообщает, что «Еженедельные кибератаки во всем мире увеличились на 7% в первом квартале 2023 года по сравнению с тем же периодом прошлого года».

Искусственный интеллект позволяет хакерам наносить более массовые атаки, каждая из которых может быть в считанные минуты персонализирована, используя информацию жертвы. Копируя голос и информацию ваших знакомых, фишинг-атаки более эффективны против пожилой популяции, которые не всегда успевают освоить новые технологии. 

Чтобы защитить себя от кибератак, необязательно занимать свое время, изучая ИИ и каждый новый технологический фад. Есть пять принципов, придерживаясь которых, можно существенно уберечь себя и своих близких:

  1. Проверять адрес исходящих из незнакомых номеров электронной почты. 
  2. Подумать дважды прежде, чем нажимать на ссылки и вложения.
  3. Ограничить личную информацию, которой делитесь в интернете.
  4. Использовать двойную аутентификацию (при логине на сайтах).
  5. Придумывать сложные пароли.

Это базовые рекомендации для нынешних страдальцев. Что касается предложенных мер безопасности, в петиции о временной приостановке гонки модулей ИИ, подписанной Маском, Шарпом, Возняком и другими, то их минимальный набор включает следующее:

  • Отслеживать не только продвинутые ИИ, но и кластеры вычислительных мощностей.
  • Создать системы верификации и маркировки искусственно сгенерированного контента.
  • Создать системы аудита и сертификации ИИ.
  • Установить ответственность за вред, нанесенный ИИ.
  • Заранее продумать механизмы компенсации последствий его внедрения в экономике и политике.

По мнению авторов петиции, к разработке внешнего контроля для ИИ нужно привлечь власти. Основной мотив их призыва примерно звучит так: "Мощные ИИ-системы должны разрабатываться только тогда, когда мы будем уверены, что их суммарный эффект положителен, а риски управляемы". Согласитесь, что временно затормозить искусственный интеллект в развитии - вполне логичное и объяснимое предложение.


Автор материала: Аяна Наркулова, North Hollywood High School Highly Gifted Magnet

Ad coverAd cover