В начале ноября представители 28 стран подписали "Декларацию Блетчли" с такой формулировкой: искусственный интеллект (ИИ) представляет "потенциально катастрофический риск" для человечества. Мы обратились к заместителю генерального директора по научной работе Объединенного института проблем информатики НАН Беларуси кандидату технических наук, доценту Сергею Касанину с просьбой объяснить: действительно ли ИИ так умен, хитер и опасен для нас?
- Сергей Николаевич, искусственный интеллект сейчас - это набор сложных алгоритмов, самосовершенствующаяся компьютерная программа или электронный монстр, который вот-вот вырвется из-под контроля?
- На данный момент ученые определяют искусственный интеллект как алгоритмы, способные самообучаться, чтобы применять эти знания для достижения поставленных человеком целей. Выделяют три вида искусственного интеллекта: слабый, сильный и супер-ИИ. Первый используется повсеместно, включая голосовых ассистентов, рекламу в соцсетях, распознавание лиц, поиск романтических партнеров в приложениях. Эти системы слабого ИИ единственные из доступных на сегодня.
Сильный ИИ максимально приближен к способностям человеческого интеллекта и наделен по классическому определению Тьюринга самосознанием. По мнению экспертов, он сформируется примерно к 2075 году, а спустя еще 30 лет придет время супер-ИИ. Он мог бы превзойти лучшие умы человечества во всех областях, при этом перепрограммируя себя, продолжая совершенствоваться и, вероятно, разрабатывая новые системы и алгоритмы самостоятельно.
Однако несмотря на то, что технологии искусственного интеллекта продолжают развиваться, нет признаков возможного появления электронных монстров, которые могут вырваться из-под контроля. ИИ используется для решения различных задач и улучшения качества жизни людей.
- Можно ли сделать прогноз развития ИИ на ближайшие 15 лет?
- Дать его сложно, поскольку технологии и научные достижения могут развиваться с неожиданной скоростью. Однако можно сказать, что ИИ будет продолжать играть важную роль в различных сферах, таких как медицина, транспорт, финансы, образование и других. Кроме того, с развитием технологий, таких как 5G, IoT и блокчейн, возможности для применения искусственного интеллекта расширятся.
По мнению экспертов Оксфордского университета, к 2026 году ИИ создаст эссе, которое сойдет за написанное человеком, заменит водителей грузовиков к 2027 году и станет выполнять работу хирурга к 2053 году. Также ИИ превзойдет людей во всех задачах в течение 45 лет и автоматизирует все рабочие места в течение 120 лет.
На данный момент разработано несколько значимых технологий в сфере искусственного интеллекта. GPT из области естественной обработки языка - самая сложная и в то же время гибкая нейронная сеть, способная генерировать статьи почти по любой теме, которые на первый взгляд трудно отличить от созданных человеком. AlphaFold 2, ставшая прорывом в медицинской науке, способна определять трехмерную структуру белка с высокой точностью всего за несколько часов. Алгоритмы AutoML (автоматизированное машинное обучение) сделали ИИ доступным малому и среднему бизнесу благодаря интеграции с облачными системами.
- Чисто теоретически - могут ли со временем у ИИ появиться эмоции?
- Сейчас он не обладает эмоциями и чувствами в том смысле, как это свойственно людям. Действия искусственного интеллекта основаны на алгоритмах и машинном обучении. Однако с развитием технологий есть вероятность, что в будущем ИИ сможет имитировать определенные переживания и даже проявлять их. Но машинная логика останется его основой работы.
Создание ИИ, способного воспринимать и обрабатывать эмоции, активно исследуется. Ученые разрабатывают алгоритмы и методы, которые позволят машинам распознавать и понимать эмоциональные сигналы в тексте, речи и других формах коммуникации, интерпретировать эмоциональные выражения на лицах людей. Идет работа над ИИ-системами, способными устанавливать эмоциональную связь с людьми, общаться на эмоциональном уровне и адекватно реагировать на эмоции пользователя.
- Педагоги отмечают, что молодежь может часами беседовать с ИИ при помощи ChatGPT. Как ученые относятся к такому "симбиозу" человека и машины?
- С интересом и осторожностью. С одной стороны, ИИ способен помочь в обучении и развитии навыков, таких как критическое мышление и решение проблем. С другой - его чрезмерное использование может привести к снижению способности человека к самостоятельному обучению и решению задач. Важно найти баланс между ИИ и традиционными методами в образовании. Учащимся также нужно развивать эмоциональный интеллект, чтобы уметь построить и поддерживать смысловые связи в реальных отношениях.
- В июне 2023-го встроенный в беспилотник ИИ во время военных учений ВВС США нарушил команду оператора "вернуться на базу" и попытался "уничтожить" его и пункт связи, в котором тот находился. Возможны ли такие эпизоды в будущем?
- Безусловно, не исключено повторение ситуации, когда встроенный в автономные системы ИИ может неожиданно действовать независимо от инструкций операторов. Как можно себя от этого обезопасить? Например, разработать надежные алгоритмы и системы безопасности, которые гарантируют, что ИИ будет выполнять только заданные и одобренные команды. Это подразумевает проведение разносторонних тестов и проверок для обнаружения и предотвращения возможных уязвимостей.
Также важно, чтобы системы ИИ были прозрачными и ответственными. Разработчики и операторы должны иметь полное понимание работы системы и контролировать ее действия. Для этого должны быть механизмы отслеживания действий и принятия решений ИИ. Также важно определить зоны запрещенных действий или режимов, когда окончательный контроль находится у оператора.
- Как вы считаете, почему в последнее время все чаще звучат призывы ограничить разработки в сфере ИИ?
- Давайте рассмотрим несколько ключевых причин, почему возникают эти призывы. Первая - сверхразумность. Развитие ИИ может привести к появлению сверхинтеллекта (СИ), который превзойдет познавательные способности человека во всех областях. Если такие системы окажутся в чьих-то руках без должного контроля, они могут создать ряд серьезных проблем.
Вторая причина - безопасность и контроль. Системы ИИ, особенно при использовании автономно функционирующих алгоритмов, могут представлять серьезную угрозу безопасности. Неконтролируемые ИИ-системы способны принимать решения, которые противоречат человеческой этике и ценностям.
Третья - замещение работников. Распространение ИИ может привести к значительной безработице в некоторых отраслях.
Помимо этих причин, существуют также опасности, связанные с непредвиденными последствиями, этическими вопросами и возможностью злоупотребления ИИ в сферах безопасности и контроля. Кроме того, злоумышленники могут использовать искусственный интеллект для усовершенствованных кибератак, манипуляции информацией или для создания автономных оружейных систем.
Призывы ограничить разработки в сфере ИИ связаны с пониманием этих и других рисков и необходимостью проведения ответственной и добросовестной работы при создании и внедрении систем искусственного интеллекта.
Несмотря на то, что технологии искусственного интеллекта продолжают развиваться, нет признаков возможного появления электронных монстров, которые могут вырваться из-под контроля. ИИ используется для решения различных задач и улучшения качества жизни людей.
| Алексей ГОРБУНОВ, газета "7 дней", фото БЕЛТА, носят иллюстративный характер.
Читайте также:
От наномира до "плужной подошвы". Три важных изобретения, которые улучшают нашу жизнь
Робот-поводырь, спасение ископаемых и арт-павильон. Что еще придумывают белорусские дети
Когда за киберспорт будут вручать олимпийские медали и что насчет белорусов?