Искусственный интеллект давно таит угрозу - можно ли защититься от рисков его агрессивного развития?
Лидеры крупнейших технологических компаний, такие как глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк высказались против развития искусственного интеллекта (ИИ). Они возглавляют группу тех, кто подписал открытое письмо с призывом заморозить на шесть месяцев разработку систем ИИ. Казалось бы, что именно их бизнес стремительно обогащается, включая и наращивая все больше и больше функций ИИ. Есть ли здесь подвох? Или технологические магнаты действительно видят опасность в развитии искусственного интеллекта?
В настоящее время продукты ИИ уже входят во многие сферы деятельности человека, включая исследования в области здравоохранения, маркетинга и финансов. Стремительно развиваясь, ИИ начинает выполнять даже те задачи, которые требуют живого человеческого общения. Например, чат-боты, способные понимать вопросы и давать ответы, используя нужный голос и не только!
В недавно опубликованном отчете инвестиционного банка Goldman Sachs содержится предположение, что искусственный интеллект сможет справляться почти с половиной задач в административной сфере и юриспруденции, заменив собой порядка 300 млн рабочих мест. При этом, если ИИ будет способен выполнять до 46% задач в административном секторе и до 44% — в юриспруденции, то автоматизировать работу в строительной отрасли или техническом обслуживании он способен только на 6% и 4% соответственно.
К примеру, даже такая с виду обычная профессия, как продавец, сейчас переходит в виртуалую сферу - и нужно уметь заказать через сайт (тот же Таобао или Алиэкспресс), провести оплату онлайн и продать также через другой сайт.
Иными словами, ИИ несет в себе угрозу в первую очередь для более старшего поколения. Угнаться за новыми технологиями и применять их функции в жизни им гораздо сложнее. Они не могут быстро обучиться новым программам, не рискуя финансово, тем более конкурировать в поиске более эффективных работ на рынке труда. Невольно вспоминается выражение Остапа Бендера: "Мы чужие на этом празднике жизни", то есть в эпоху машин с ИИ.
Более того, вся эта компьютеризация и цифровизация делает их легкими жертвами кибермошенников, которые пользуясь доверчивостью, крадут их персональные данные и деньги. С развитием новых технологий, даже ординарные хакеры сейчас находят все более и более изощренные способы наносить кибератаки на массовое население. И каждым годом число краж только растет.
Форбс сообщает, что «Еженедельные кибератаки во всем мире увеличились на 7% в первом квартале 2023 года по сравнению с тем же периодом прошлого года».
Искусственный интеллект позволяет хакерам наносить более массовые атаки, каждая из которых может быть в считанные минуты персонализирована, используя информацию жертвы. Копируя голос и информацию ваших знакомых, фишинг-атаки более эффективны против пожилой популяции, которые не всегда успевают освоить новые технологии.
Чтобы защитить себя от кибератак, необязательно занимать свое время, изучая ИИ и каждый новый технологический фад. Есть пять принципов, придерживаясь которых, можно существенно уберечь себя и своих близких:
- Проверять адрес исходящих из незнакомых номеров электронной почты.
- Подумать дважды прежде, чем нажимать на ссылки и вложения.
- Ограничить личную информацию, которой делитесь в интернете.
- Использовать двойную аутентификацию (при логине на сайтах).
- Придумывать сложные пароли.
Это базовые рекомендации для нынешних страдальцев. Что касается предложенных мер безопасности, в петиции о временной приостановке гонки модулей ИИ, подписанной Маском, Шарпом, Возняком и другими, то их минимальный набор включает следующее:
- Отслеживать не только продвинутые ИИ, но и кластеры вычислительных мощностей.
- Создать системы верификации и маркировки искусственно сгенерированного контента.
- Создать системы аудита и сертификации ИИ.
- Установить ответственность за вред, нанесенный ИИ.
- Заранее продумать механизмы компенсации последствий его внедрения в экономике и политике.
По мнению авторов петиции, к разработке внешнего контроля для ИИ нужно привлечь власти. Основной мотив их призыва примерно звучит так: "Мощные ИИ-системы должны разрабатываться только тогда, когда мы будем уверены, что их суммарный эффект положителен, а риски управляемы". Согласитесь, что временно затормозить искусственный интеллект в развитии - вполне логичное и объяснимое предложение.
Автор материала: Аяна Наркулова, North Hollywood High School Highly Gifted Magnet