Грозит ли штраф компании, которая не обучает сотрудников ИИ? 

25 марта, 2025
Грозит ли штраф компании, которая не обучает сотрудников ИИ? 360WEDO
25 марта, 2025

Евросоюз хочет, чтобы компании следили за ИИ-грамотностью своих сотрудников. К чему на практике приведет это требование и другие нормы, вытекающие из закона об искусственном интеллекте?

Обеспокоенный стремительным развитием искусственного интеллекта и связанными с ним угрозами, Европейский союз прошлым летом принял постановление о регулировании искусственного интеллекта. Это первый в мире нормативный акт, регулирующий использование систем искусственного интеллекта. Евросоюз стремится к тому, чтобы государства-члены использовали только безопасные, надежные, прозрачные и недискриминационные системы искусственного интеллекта.

Постановление предназначено для государственных и частных организаций в ЕС и за его пределами, которые предоставляют или развертывают ту или иную систему ИИ на европейском рынке. В отличие от этого, для обычных пользователей ИИ Закон об ИИ не налагает практически никаких обязательств. Скорее, регулирование направлено на их защиту.

Однако ряд компаний и организаций критически относятся к регулированию ЕС. По мнению Конфедерации промышленности и транспорта Чешской Республики (SP ČR), ЕС рискует оказаться неконкурентоспособным в области ИИ из-за чрезмерной бюрократии. В связи с этим SP ČR присоединилась к другим бизнес-организациям, которые направили открытое письмо в Европейскую комиссию по поводу этого постановления.

Закон об искусственном интеллекте (EU 2024/1689) вступил в силу в августе 2024 года, но полностью вступит в силу только в августе 2026 года, за исключением положений о запрещенной практике, системе администрирования или правоприменения и санкциях. Помимо правил, Закон об ИИ также предусматривает наказания для тех, кто не соблюдает требования и обязательства. Например:

  • 35 млн евро или 7% годового оборота от продажи запрещенной системы ИИ,
  • 15 млн евро или 3% годового оборота за нарушение других обязательств,
  • 7,5 млн евро или 1,5% годового оборота за предоставление недостоверной информации.

Эта часть вступила в силу со 2 февраля 2025 года.

Бухгалтерские и консультационные услуги для бизнеса в Праге

Грамотность ИИ. Будет ли она соблюдаться?

Однако часть уже установленной Фазы 1 включает в себя, помимо прочего, статью, которая касается достаточной грамотности в области ИИ сотрудников, чьи компании используют эти системы. Именно в связи с этой статьей в последние месяцы в сети распространялись сообщения о том, что у компаний есть всего несколько месяцев на обучение своих сотрудников, и если они этого не сделают, то рискуют нарваться на серьезные штрафы.

Однако, как заявил Ондржей Ганак из eLegal регулярное обучение сотрудников будет необходимо, но никто не будет контролировать уровень и частоту обучения априори.

Если в будущем, когда закон об искусственном интеллекте вступит в силу в полном объеме, или появится проблема, вызванная использованием искусственного интеллекта сотрудником, можно будет принять во внимание то, как компания внедрила искусственный интеллект. Как она обучила сотрудников пользоваться им и так далее. Если в этом отношении будут обнаружены нарушения, это может стать отягчающим обстоятельством для компании. Однако угроза крупных штрафов преувеличена. Никаких санкций в связи с этой статьей не существует, заверил адвокат Ондржей Ганак.

Запрет на манипулятивные системы

Итак, первая часть закона об искусственном интеллекте, которая уже действует, направлена на запрет определенных систем, а не на грамотность ИИ. В целом нормативный акт определяет 4 уровня риска для систем ИИ:

  • Запрещенные системы.
  • Системы с высоким уровнем риска,
  • системы с ограниченным риском,
  • системы с минимальным риском.

К первой категории, полностью запрещенной, относятся, например, системы, использующие манипулятивные техники. Конечно, термин «манипулятивный» для каждого может означать что-то свое — даже реклама может быть де-факто частичной манипуляцией. По сути, это довольно свободное понятие, которое Европейский союз сейчас пытается наполнить определенным содержанием. В общем, речь идет о подсознательных приемах, подсознательных манипуляциях, которым подвергаются пользователи ИИ и которые могут снизить их способность принимать взвешенные решения и тем самым нанести им серьезный вред, пояснил Ханак.

В начале февраля Европейская комиссия опубликовала руководящие принципы, в которых дается более подробное определение этих манипулятивных систем. Чешская ассоциация искусственного интеллекта обобщила опубликованные документы, сведя их к следующим пунктам:

ИИ не должен манипулировать с помощью подсознательных методов: реклама или чат-боты не должны влиять на людей с помощью скрытых сигналов, которые обходят их сознательное принятие решений.

ИИ не должен использовать уязвимые места людей: он не должен ориентироваться на детей, пожилых людей, людей с ограниченными возможностями или людей в трудном финансовом положении.

Запрет социального скоринга: запрет на оценку граждан на основе их поведения.

ИИ не должен предсказывать преступников только на основе личности: запрет направлен на предиктивные системы ИИ, которые могут предсказать, совершит ли человек преступление, основываясь, например, на его поведении в социальных сетях или психологическом профиле.

Запрет на автоматический сбор информации о лицах: с веб-сайтов или камер наблюдения для создания баз данных для распознавания лиц.

Распознавание эмоций на рабочем месте: за исключением соображений охраны здоровья и безопасности, ИИ не должен анализировать эмоции сотрудников на рабочем месте или учеников в школах.

Ограничения на категоризацию биометрических данных: ИИ не должен анализировать биометрические данные и классифицировать людей по признакам расы, политических взглядов, религии или сексуальной ориентации.

Полиция не может (за исключением отдельных случаев) отслеживать людей с помощью ИИ в режиме реального времени: системы биометрической идентификации в режиме реального времени в общественных местах запрещены. Исключения составляют случаи поиска пропавших людей, террористических угроз или поиска опасных преступников.

Вторая часть закона об искусственном интеллекте. Что ждет нас впереди?

Вторая часть закона об искусственном интеллекте, которая выйдет в августе 2026 года, рассматривает системы оставшихся трех уровней риска. То есть, например, системы высокого риска, которые не запрещены, но ЕС предъявляет ряд строгих требований к их эксплуатации.

На практике это может включать программное обеспечение для оценки резюме при поступлении в вуз или оценки результатов при приеме в средние и высшие учебные заведения. В финансовой сфере это могут быть системы искусственного интеллекта для скоринга клиентов при подаче заявок на получение различных кредитов или системы предотвращения мошенничества. По словам Ондржея Ганака, постановление ЕС в основном касается ситуаций, когда ИИ непосредственно участвует в принятии решений. И наоборот, ситуации, когда ИИ скорее дает рекомендации, представляют меньший интерес для ЕС.

В категорию систем с ограниченным риском попадают инструменты ИИ, которые используются для взаимодействия с людьми или искусственного создания контента. 

Для таких систем ЕС будет требовать хотя бы минимального уровня прозрачности, в частности, обязательство информировать пользователей о том, что они взаимодействуют с ИИ. Системы с минимальным риском не должны быть затронуты Законом об ИИ.

Источник:

https://www.mesec.cz/clanky/hrozi-firme-ktera-neproskoli-zamestnance-v-ai-pokuta-zbytecne-straseni-rika-pravnik

Как начать работу с 360 WEDO?

Заполните и отправьте нам форму и наш специалист свяжется с Вами ближайшее время
img