Закон об использовании ИИ в России должен не только защитить права граждан и бизнеса, но и определить ответственность как разработчиков, так и пользователей технологий для обеспечения безопасности общества и государства. Об этом в эфире
радио "Спутник в Крыму" заявил президент национальной Ассоциации цифровой экономики Андрей Неукрытый, отметив, что первый закон в этой области будет рамочным.
На днях стало известно, что в Совете Федерации подготовили законопроект о безопасном использовании искусственного интеллекта. Ранее президент РФ Владимир Путин призвал активнее внедрять ИИ в России.
Права и обязанности всех
По словам Неукрытого, отсутствие законопроекта в области искусственного интеллекта позволяет сегодня как разработчикам моделей ИИ, так и тем, кто ими пользуется, уходить от ответственности, если результат работы машинного разума окажется ошибочным случайно либо будет намеренно использован для обмана людей.
Дело в том, что модели искусственного интеллекта – это технология, которая для поиска ответа на тот или запрос пользователя обрабатывает огромный массив информации в интернете, не проверяя ее, отметил эксперт.
"То есть нет структуры на проверку достоверности этих данных, именно в самой технологии не заложено. Она просто выдает релевантные данные, которые, по мнению искусственного интеллекта, отвечают этому запросу", – пояснил Неукрытый.
При этом технологически такие процессы вполне поддаются регулированию на этапе создания модели ИИ, а значит должны контролироваться, подчеркнул он.
"В саму модель загружаются определенные данные, и они должны быть сформированы и достоверны", – заметил Неукрытый.
В частности, должна быть предусмотрена определенная фильтрация данных.
Например, если мы говорим о медицинской сфере, то выдача ответа на запрос врача к ИИ должна быть сгенерирована на основе той информации, которая собрана исключительно профессиональным медицинским сообществом, а не просто разбросана по сети интернет на различных сайтах частных клиник, сетей аптек и так далее, сказал Неукрытый.
Но нести ответ должен и пользователь, отметил он. То есть результат любых обращений к технологии ИИ, независимо от того, делают его граждане, бизнес или государство, должен проверяться, а если проверки не было, должна наступать ответственность за пагубный результат, добавил Неукрытый.
Это позволит избежать серьезных ошибок в самых разных областях, в том числе уже упомянутой медицине, а также военной сфере, где искусственный интеллект сегодня используется все больше, подчеркнул эксперт.
"Весь спектр решений должен перейти в законодательную плоскость, в юридическую. То есть, мы говорим о риск-ориентированном подходе, чтобы искусственный интеллект не наносил вред гражданам, бизнесу, государству при взаимодействии с ними. А на сегодняшний день ряд чиновников, компаний и бизнесов... перекладывают ошибки, допущенные ими, на искусственный интеллект", – прокомментировал Неукрытый.
Мы только на старте
Законодательно следует регламентировать и взаимодействие искусственного интеллекта с несовершеннолетними, которые должны быть защищены, а значит, нужны определенные ограничения, отметил эксперт.
Также должна быть регламентирована работа ИИ с учетом прав граждан и обеспечения их безопасности, в том числе защиты персональных данных и информации из сферы личной жизни, имеющихся как на официальных сайтах, так и в соцсетях, добавил он.
"Если мы заходим в поисковую систему и делаем запрос о том или ином человеке, нам выдаются результаты выдачи со ссылками на конкретные источники. Это могут быть как социальные сети, так и сайты, и информационные ресурсы. Для искусственного интеллекта аналогичная ситуация: результат должен быть с конкретными ссылками с указанием на первоисточники. И ни в коем случае не подвергать дополнительной синтетической обработке эти данные. И опять же должна быть ответственность социальных сетей", – сказал Неукрытый.
Он указал на важность маркировки контента искусственным интеллектом, что является пока вопросом для обсуждения с точки зрения способов реализации.
Эксперт подчеркнул также, что на сегодняшний день 95% компаний в России, в том числе государственных, используют зарубежные модели искусственного интеллекта, а не отечественные, поскольку последние существенно уступают технологически и не позволяют решать необходимые задачи, так что и в этой части "законодательная база очень сильно отстает от нашей действительности".
Таким образом, по словам Неукрытого, необходимость появления закона, регулирующего работу ИИ в России, давно назрел, как когда-то это стало необходимым в связи с развитием интернета, проникшего во все сферы жизни общества, а потом с цифровизацией, изменившей систему управления, документооборот и многое другое.
Но сразу все необходимое регламентировать не получится – работа будет вестись поступательно, отметил эксперт.
"Говорить, что с принятием данного законопроекта у нас решатся все проблемы, будет неверно... Этот законопроект будет рамочным, то есть будет иметь общие черты. А вот в последующие годы после его принятия все будет нормативно регулироваться", – резюмировал он.