Финансовая сфера

Банковское обозрение


  • Хиросима, Терминатор и Эзоп
29.03.2024 FinRegulationАналитика

Хиросима, Терминатор и Эзоп

По какому сценарию пойдет мир в процессе регулирования технологий искусственного интеллекта


В ходе своей работы в Ассоциации банков России я столкнулся с тем, что «неюристы» не понимают, чем этическая норма отличается от нормы права. В чем конфликт и почему надо выбирать, что применять для регулирования? Это вопрос принципиальный, когда речь идет о таком социальном явлении, как искусственный интеллект (ИИ). Для тех, кто хочет узнать, каков мировой опыт в регулировании и этическом осмыслении ИИ, СберБанк выпустил кондуит на 450 страницах: «Глобальный атлас регулирования искусственного интеллекта». Можно нырнуть в него и не вынырнуть оттуда.

Я решил пойти совершенно другим путем, так как, для того чтобы понять, какой способ регулирования выбрать, надо понимать, зачем мы это делаем, какие риски, какие угрозы или, в терминологии диалектического материализма, каков социальный конфликт.

Я коротко описал три сценария, начну с условной «Хиросимы».  

Мы понимаем, что ИИ прежде всего применяется в военных разработках. И применяемая в военных разработках, эта сфера полностью выключена из институтов гражданского общества, и информации о ней у нас нет. Но что происходит на самом деле?

Развязывается гонка: кто первый создаст сильный ИИ. Это заявлено на самых высоких уровнях во всех странах. Тот, кто его первым создаст, тот приобретет невиданное конкурентное преимущество.

Еще неизвестно, что будет после этой точки бифуркации. Может быть, этот ИИ не даст другим искусственным интеллектам быть созданными.

Возможно ли регулирование в таком случае? Есть ли какая-то страна, которая осмелится начать регулировать? Сделать это в тот момент, когда речь идет о выживании страны… Наверное, никто не осмелится. Сценарий назван «Хиросима», потому что речь идет о такой же гонке ядерных вооружений, которая произошла в 1940-х годах, ситуация разворачивается примерно по тем же лекалам и алгоритмам. Дальше у того, кто первым разработает сильный ИИ, появится огромный соблазн применить его в соответствующих целях. Учитывая ситуацию в мире, можно сказать, что это применение уже предрешено: он будет использоваться в самых нехороших целях. А поскольку военная сфера во всех странах вынесена за границу такого регулирования, будет происходить то, что будет происходить.

Следующий сценарий: «Терминатор». Мы боимся, что ИИ, условно, поработит человека. На мой взгляд, сценарий маловероятный, хотя у обывателя именно он вызывает недоверие. Именно этот сценарий описан во всех юридических документах всех стран как тот, которому нужно противодействовать. Во всех этих документах красной строкой проходит недоверие людей искусственному интеллекту. С этим надо работать, вопрос непростой.

Если коллективное бессознательное сопротивляется чему-то, значит, в нем есть какие-то онтологические моменты, которые не дают принять быстро и однозначно эту историю.

Сценарий маловероятный, во всяком случае до момента создания сильного ИИ. Пока все, что сейчас происходит, находится под контролем разработчиков, и контроль разработчиков гарантирует отсутствие серьезных проблем. Отдельные инциденты происходят, мы это знаем: то в Штатах какой-то робот убил солдата, то еще где-то автомобиль ехал-ехал, а потом врезался в автобус. Это отдельные инциденты, их мы не можем брать за основу угрозы, за основу оценки риска.

Следующий сценарий, на мой взгляд, более очевидный — «Эзоп», то есть расчеловечивание, или утрата свободы воли. Об этом тоже сообщается везде, во всех регулятивных документах, и именно это внесено в зашифрованном виде в акты европейского сообщества. Там написано, что этическое и правовое регулирование предназначено для противодействия нарушениям: 1) прав и свободы личности, 2) норм демократии, 3) законности. В разных интерпретациях эти три момента всегда и везде присутствуют.

На самом деле здесь мы предполагаем, что в экономической модели современной экономики данных, которая неразрывно связана с ИИ, человек рассматривается как приложение к экономической функции, как поставщик потребительских данных.

В трудах теоретиков современной цифровой цивилизации полностью отсутствует, например, категория свободы из конструкции социального государства. На мой взгляд, это более реальная проблема, поэтому все европейское и мировое регулирование направлено на противодействие этой угрозе.

Три сценария мы обозначили, теперь — о том, по какому пути сейчас идет регулирование.

Все говорят об этическом регулировании. Это означает, что разработчики и потом пользователи искусственного интеллекта должны взять на себя добровольную обязанность разрабатывать систему ИИ таким образом, чтобы в ней не возникало соблазна нарушить те три принципа, которые я назвал (демократия, права и свободы человека, законность). Что такое добровольность, мы все понимаем. А степень обязательности? Если мы в военную сферу вообще сунуться не можем, то и в гражданской сфере эта обязательность носит условный характер. Потому что все компании, занимающиеся этим серьезно, погружены в конкурентную среду, причем конкуренция сейчас осуществляется между двумя-тремя странами. Это предварительный шаг для того, чтобы начать регулировать. Я бы сказал, что это мировая рекогносцировка. Все смотрят и думают: «Уже пора ограничивать риск принудительно, то есть с помощью норм права, или еще рано это делать? Мы уже получили конкурентное преимущество и можем ограничивать риск или мы этот риск не можем ограничить?». В рамках решения этого противоречия будет развиваться дальнейшее регулирование.

Именно потому, что страны рвутся к созданию сильного ИИ, все пока находятся на уровне шершавого языка плаката этических норм. Следующий шаг — это регулирование. Затем — надзор. Но я думаю, что надо начинать с надзора. Если посмотреть наши регулятивные документы (Указ президента и Постановление правительства), мы много найдем об этике, совсем немного — о регулировании и совсем ничего — о надзоре. Я думаю, надо выстраивать ситуацию с надзора: надо определить ведомство, которое может не начинать пока надзор, но обязано начать разработку методологии. И эта задача на ближайшие два-три года у такого ведомства должна бы быть главной. Как только оно построит методологию надзора, у него родится методология регулирования.

(По материалам выступления автора на конференции «Б.О» «ИИ-БАНКИНГ_24: Алгоритмы успеха» 26 марта 2024 года)

Презентация спикера

Этика и регулирование ИИ

 






Новости Новости Релизы