Добавлена новая вакансия Vacancy_name
Назад

«Подготовиться к возможным потрясениям»: IT-специалист — о перспективах и рисках в сфере искусственного интеллекта

Дата публикации: 27 апреля 2021

— Недавно Еврокомиссия опубликовала «Предложения о регулировании искусственного интеллекта на основе европейского подхода». Документ декларирует необходимость полного запрета на применение систем искусственного интеллекта в ряде случаев. К системам с неприемлемо высоким риском предлагается относить те, которые манипулируют человеком, влияют на свободу его выбора. Что же такое искусственный интеллект в современном понимании и какую опасность в нём видит Европа?

— Мы, как и большинство разработчиков, используем неромантическое определение искусственного интеллекта. Для нас это любая автоматизация функций, которые раньше выполнялись человеком с использованием его интеллектуальных возможностей, любая замена человеческого труда на машину, на алгоритм.

В случае с ограничениями, которые вводят европейцы, речь идёт не об ограничении в разработках, а о том, что не любым образом можно использовать математические алгоритмы, принимающие решение самостоятельно, без участия специалистов.

— Вопрос применения без человеческого контроля...

— Конечно. Мы можем провести аналогию. Появление правил дорожного движения никоим образом не ограничило развитие автомобилей. Возникли правила, следуя которым общество может гарантировать меньшее количество жертв на дорогах, а технологии развиваются контролируемо. То же самое и здесь. Вводятся правила, но это не значит, что меньше денег будет инвестироваться в эту сферу, что меньше будет исследователей. Просто общество заранее готовится к рискам, возможным потрясениям, которые могут произойти из-за неправильного использования.

Один из таких примеров — цифровой рейтинг. Все уже привыкли, что банк проставляет кредитный рейтинг, который может влиять на судьбу гражданина. От рейтинга может зависеть, сможет ли человек улучшить, например, свои жилищные условия, купить квартиру или дом. А теперь представьте системы автоматического принятия решений, которые проставляют человеку глобальный социальный рейтинг, не только платёжеспособности…

— Это уже какой-то антиутопический сюжет...

— Да, это всё показано давным-давно ещё фантастами ХХ века. Идёт гонка в области автоматизации, цифровизации. Никто не хочет упускать возможности, но при этом нельзя забывать о возможных потрясениях. Например, надо готовиться к росту безработицы и заранее вводить программы переквалификации людей. Возможно, появится какое-то агентство по сертификации продуктов с искусственным интеллектом, чтобы убедиться, что они соблюдают этические нормы. Речь не только о том, чтобы ввести ограничения, но и заранее подготовить государственные программы, чтобы не оказаться в момент кризиса без соответствующих инструментов.

— Это процесс глобальный. Все технологичные страны об этом задумываются и будут изменять своё законодательство?

— Крупные державы, разумеется, заявляют, что сферу искусственного интеллекта надо финансировать. Китай, например, в сотни раз больше ресурсов вкладывает в развитие программ искусственного интеллекта, чем наша страна. В сравнимом объёме такие исследования финансируют США. Все они понимают не только важность этой сферы, её перспективы, но и риски. Тот, кто заранее подготовится, и будет впереди всех.

— В чём конкретно заключаются риски? Это вопрос вторжения в личную жизнь, борьба за свободу граждан?

— В первую очередь речь идёт о вторжении в личную жизнь. О том, что нас начинают отслеживать в офлайне и в цифровом пространстве. Во-вторых, о дискриминации по различным социальным признакам. Которая, разумеется, не должна происходить.

Например, по косвенным признакам категорически непозволительно определять, что девушка беременна, и из-за этого не брать её на работу. Крупные корпорации не должны отслеживать сетевые публикации и переписку с помощью сотовой связи, чтобы на основе этого решать, нанимать ли человека на работу. Во многом ограничения касаются больших данных, которые копятся у транснациональных корпораций.

— Спецслужбы, военные под эти ограничения не подпадают?

— Ограничения никоим образом не повлияют на военную сферу. Эта сфера отдельная, в ней крупные державы, те же Штаты, не идут на диалог, только увеличивают бюджеты. Международные договорённости на запрет умного оружия не пройдут. Скорее всего, большое распространение получат беспилотники, которые сами принимают решение о нанесении удара, умные мины, которые отличают солдата одной стороны от другой. Здесь возможны всякие ужасы, если не получится договориться.

— Для военных нет никакого регулирующего механизма?

— Пока нет. Более того, в последней американской стратегии по искусственному интеллекту прописано, что нужно добиваться присутствия искусственного интеллекта во всех государственных организациях: например, чтобы разведка использовала человеко-машинные методы работы с информацией. Искусственный интеллект должен предоставлять различные инструменты группировки данных, фильтрации, а сотрудник спецслужб будет ими пользоваться.

— Считаете ли вы, что в принципе любая власть с внедрением таких систем становится более авторитарной?

— Да, причём не только государственная власть. Нельзя забывать о власти корпораций, которые являются держателями гигантской клиентской базы. И у них есть точки входа в личную жизнь каждого из нас (мобильное приложение, голосовая колонка, веб-сервисы и т.д.).

— Можно сколько угодно говорить о социальной ответственности бизнеса, но без механизмов общественного контроля она невозможна.

— Это регулируется только законами. Есть законы о банковской тайне, о медицинской, о персональных данных.

Сейчас речь идёт и о том, что нельзя давать автоматическим системам и алгоритмам принимать решения о человеческих судьбах. Мы не должны увидеть роботов-судей, роботов-юристов, которые решают, как распределить детей между родителями, кому отдать имущество.

— Как с искусственным интеллектом обстоят дела в России — и в законодательном плане, и в области технологического развития? И на каком уровне мы участвуем в мировой конкуренции?

— В России уже сейчас есть рабочие группы по этике искусственного интеллекта, есть концепция регулирования этой сферы. Но прямого законодательного регулирования пока нет. 

В России есть компании, которые разрабатывают продукты мирового уровня. Например, «Яндекс», ABBYY, «Лаборатория Касперского» и другие. Но в целом на глобальном рынке продуктов с искусственным интеллектом мы занимаем очень маленькую долю. При этом по уровню компетенций, по количеству специалистов в этой области у нас первое место в мире. Наша школа пока сохраняет свои позиции. Это закономерно, потому что в сферу искусственного интеллекта затянуло огромное количество программистов и математиков. Продуктов с ИИ могло быть больше, но это направление в России недофинансировано, поэтому, в частности, многие кадры уходят в зарубежные корпорации. Нужно стимулировать спрос, финансировать разработки.

— Может ли появиться мыслящий, осознающий себя искусственный интеллект? 

— Моё субъективное мнение — сознание в машине вообще не может зародиться. Вместо этого нужно здесь и сейчас заниматься решением практических задач, которые могут принести пользу обществу. Но я знаю философов, публицистов и даже разработчиков, которые думают иначе.

— Сейчас большинство упоминаний искусственного интеллекта так или иначе связаны с машинным обучением, образованием. Но это ведь не одно и то же?

— Искусственный интеллект на самом деле состоит не только из машинного обучения, есть ещё направление экспертных систем. В чём отличие? Допустим, мы расспросили врачей, как именно устроен их алгоритм постановки диагноза, механизм принятия решений. После запрограммировали этот алгоритм. Получается экспертная система.

Машинное обучение мы используем, когда не можем узнать у человека, как именно он решает задачу, но можем собрать примеры решения. На большом массиве данных можно обучить, например, нейронную сеть или любой другой алгоритм, которых сейчас много, выявлять в этих данных неявные закономерности.

— Оба направления, по описаниям, кажутся вполне безобидными. Так в чём же главная опасность искусственного интеллекта?

— Опасность в том, что мы делегируем искусственному интеллекту ответственность принимать решения о наших судьбах. А он не обладает никаким, так сказать, моральным компьютером, моральным вычислителем. Можно считать, что ему наплевать на нас.

И если мы важные решения передадим машине, то окажемся у неё в заложниках. Причём окажется, что мы — заложники не просто алгоритма, а ещё и заложники разработчиков алгоритма. Это такой «большой брат», у которого основным управляющим становится некий «отец-разработчик». Возникнет цифровая диктатура. Это не то, к чему хочется прийти.

 

— Что сейчас представляет собой рынок искусственного интеллекта? 

— Рынок бурно развивается. По средним показателям, по России рост тоже значительный. По сравнению с другими сферами наш рынок растёт в семь — десять раз быстрее. Все крупные компании видят экономическую выгоду в использовании искусственного интеллекта. Например, если где-то можно заменить кол-центр на голосового робота, то будут вкладываться в него.

Малый бизнес может использовать только «коробочные» продукты, разработка чего-то нетипового для него не по карману. То же, например, распознавание лиц — это уже «коробочный» продукт. Оплатил веб-сервис, подключил его к камере — и всё, камера превращается в умную. Узнаёт, например, пришедших на работу сотрудников, возвращающихся покупателей, определяет пол и возраст.

— В каких областях искусственный интеллект приносит наибольшую общественную пользу? 

— В промышленных организациях искусственный интеллект снижает количество несчастных случаев и поломок на производстве за счёт предиктивной аналитики и увеличивает выработку за счёт оптимизации технологических процессов.

Наиболее перспективные разработки ИИ — в медицине. Там, где необходимо учитывать огромное количество факторов, а квалифицированных специалистов не хватает или они очень дороги. Медицина — сфера, в которой искусственный интеллект в ближайшие годы сможет принести самую значительную пользу обществу.

Поделиться: