Europe Россия Внешние малые острова США Китай Объединённые Арабские Эмираты Корея Индия

Искусственный интеллект в России предложили регулировать по четырем направлениям

1 месяц назад 9

Эксперты рассказали, какие лучшие международные практики нужно применять, чтобы граждане избежали «жизни в матрице»

Искусственный интеллект – старейшая технология в мире, первое упоминание о которой встречется у Айзека Азимова еще более 80 лет назад. Общий объем инвестиций в технологии искусственного интеллекта (ИИ) в мире к 2026 году достигнет $300 млрд, прогнозирует консалтинговая компания IDC. Больше всего на разработки в этой области тратят банки и ритейл.

В России нет специального регулирования технологий ИИ, как это было сделано, например, в ЕС, где с 1 августа вступил в силу первый в мире системный наднациональный закон в этой сфере. При этом законодательное регулирование всего процесса работы ИИ может не быть на сегодня единственно верным шагом, но закрытие отдельных вопросов, которые возникают при работе ИИ, необходимо.

Рекомендации по регулированию сферы ИИ в России, которое, с одной стороны, не должно остановить развитие технологии, а с другой – закрыть ключевые риски, разработал Российский центр компетенций и анализа стандартов Организации экономического сотрудничества и развития (ОЭСР) Президентской академии. Это риски, связанные с предъявлением ложных обвинений, дискриминацией, социальным инжинирингом, фишингом.

С 2022 по 2024 год в России на фоне введенных международных санкций на 30–40% выросла стоимость разработки сервисов ИИ. Остановилось сотрудничество отечественных специалистов с крупными зарубежными компаниями: всего ушли из России 174 ИТ-компании из недружественных стран. Однако шоком для отрасли это не стало. Одновременно увеличилась господдержка технологий ИИ. Бюджетное финансирование в 2022 году составило 7,1 млрд руб., объем закупок госкорпорациями – 1,1 млрд руб. По прогнозу курирующего ИТ-направление зампреда правительства РФ Дмитрия Чернышенко, благодаря внедрению технологий ИИ в нашей стране в различных отраслях ВВП вырастет на 6% до 2030 года. К этому времени Россия должна войти в топ-5 стран мира «по основным метрикам ИИ».

Важно объективно оценивать и негативное влиение ИИ: рост дезинформации в обществе; рост рыночной силы отдельных участников рынка; рост экономического и социального неравенства; рост дискриминации, нарушений права на частную жизнь.

Закрыть ключевые риски использования ИИ призвали в Российском центре компетенций и анализа стандартов ОЭСР Президентской академии под руководством Антонины Левашенко. Основываясь на лучших международных практиках, там выделили четыре направления, регулирование для которых очень важно создать в России.

Во-первых, необходимо создание категоризации систем ИИ по степени риска для пользователя, чтобы установить разные степени контроля над отдельными видами ИИ.. Так, уже созданы и работают технологии, которые обладают высоким риском для здоровья людей, их безопасности и соблюдения основных прав граждан - например, системы распознавания лиц, управления критическими инфраструктурами, персоналом и др.

Во-вторых, необходимо обеспечить соответствие провайдеров технологии ИИ следующим требованиям: прозрачности (возможности ознакомиться с механизмом работы ИИ), объяснимости (возможности понять, почему система ИИ выдала конкретный результат), надежности и безопасности (устойчивости к внешним воздействиям и мерам по недопущению причинения ущерба) и др.

В-третьих, очень важно прописать в законодательстве требования по маркировке контента, созданного с использованием отдельного вида ИИ – генеративного. Их отсутствие повышает риски распространения дип-фейков и наращивания социальной напряженности.

В-четвертых, рекомендовано на законодательном уровне установить требования по ясному информированию пользователей о взаимодействии с системами ИИ и тому, как эта система ИИ работает, а также предоставить гражданам легкореализуемое право на отказ от такого взаимодействия. Это позволит дополнительно защитить персональные данные россиян, считают эксперты Президентской академии.

Read Entire Article