Искусственный интеллект давно таит угрозу - можно ли защититься от рисков его агрессивного развития?

Economist.kg
Искусственный интеллект давно таит угрозу - можно ли защититься от рисков его агрессивного развития?

Лидеры крупнейших технологических компаний, такие как глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк высказались против развития искусственного интеллекта (ИИ). Они возглавляют группу тех, кто подписал открытое письмо с призывом заморозить на шесть месяцев разработку систем ИИ. Казалось бы, что именно их бизнес стремительно обогащается, включая и наращивая все больше и больше функций ИИ. Есть ли здесь подвох? Или технологические магнаты действительно видят опасность в развитии искусственного интеллекта?

В настоящее время продукты ИИ уже входят во многие сферы деятельности человека, включая исследования в области здравоохранения, маркетинга и финансов. Стремительно развиваясь, ИИ начинает выполнять даже те задачи, которые требуют живого человеческого общения. Например, чат-боты, способные понимать вопросы и давать ответы, используя нужный голос и не только!

В недавно опубликованном отчете инвестиционного банка Goldman Sachs содержится предположение, что искусственный интеллект сможет справляться почти с половиной задач в административной сфере и юриспруденции, заменив собой порядка 300 млн рабочих мест. При этом, если ИИ будет способен выполнять до 46% задач в административном секторе и до 44% — в юриспруденции, то автоматизировать работу в строительной отрасли или техническом обслуживании он способен только на 6% и 4% соответственно. 

К примеру, даже такая с виду обычная профессия, как продавец, сейчас переходит в виртуалую сферу - и нужно уметь заказать через сайт (тот же Таобао или Алиэкспресс), провести оплату онлайн и продать также через другой сайт. 

Иными словами, ИИ несет в себе угрозу в первую очередь для более старшего поколения. Угнаться за новыми технологиями и применять их функции в жизни им гораздо сложнее. Они не могут быстро обучиться новым программам, не рискуя финансово, тем более конкурировать в поиске более эффективных работ на рынке труда. Невольно вспоминается выражение Остапа Бендера: "Мы чужие на этом празднике жизни", то есть в эпоху машин с ИИ.

Более того, вся эта  компьютеризация и цифровизация делает их легкими жертвами кибермошенников, которые пользуясь доверчивостью, крадут их персональные данные и деньги.  С развитием новых технологий, даже ординарные хакеры сейчас находят все более и более изощренные способы наносить кибератаки на массовое население. И каждым годом число краж только растет.

Форбс сообщает, что «Еженедельные кибератаки во всем мире увеличились на 7% в первом квартале 2023 года по сравнению с тем же периодом прошлого года».

Искусственный интеллект позволяет хакерам наносить более массовые атаки, каждая из которых может быть в считанные минуты персонализирована, используя информацию жертвы. Копируя голос и информацию ваших знакомых, фишинг-атаки более эффективны против пожилой популяции, которые не всегда успевают освоить новые технологии. 

Чтобы защитить себя от кибератак, необязательно занимать свое время, изучая ИИ и каждый новый технологический фад. Есть пять принципов, придерживаясь которых, можно существенно уберечь себя и своих близких:

  1. Проверять адрес исходящих из незнакомых номеров электронной почты. 
  2. Подумать дважды прежде, чем нажимать на ссылки и вложения.
  3. Ограничить личную информацию, которой делитесь в интернете.
  4. Использовать двойную аутентификацию (при логине на сайтах).
  5. Придумывать сложные пароли.

Это базовые рекомендации для нынешних страдальцев. Что касается предложенных мер безопасности, в петиции о временной приостановке гонки модулей ИИ, подписанной Маском, Шарпом, Возняком и другими, то их минимальный набор включает следующее:

  • Отслеживать не только продвинутые ИИ, но и кластеры вычислительных мощностей.
  • Создать системы верификации и маркировки искусственно сгенерированного контента.
  • Создать системы аудита и сертификации ИИ.
  • Установить ответственность за вред, нанесенный ИИ.
  • Заранее продумать механизмы компенсации последствий его внедрения в экономике и политике.

По мнению авторов петиции, к разработке внешнего контроля для ИИ нужно привлечь власти. Основной мотив их призыва примерно звучит так: "Мощные ИИ-системы должны разрабатываться только тогда, когда мы будем уверены, что их суммарный эффект положителен, а риски управляемы". Согласитесь, что временно затормозить искусственный интеллект в развитии - вполне логичное и объяснимое предложение.


Автор материала: Аяна Наркулова, North Hollywood High School Highly Gifted Magnet

Подписывайтесь на рассылку дайджестов

Успех! Теперь проверьте свою электронную почту

To complete Subscribe, click the confirmation link in your inbox. If it doesn’t arrive within 3 minutes, check your spam folder.

Хорошо, спасибо

По теме

Главные новости

Последние новости