От светаРегулации

До 1 година България трябва да определи институция за контрол на изкуствения интелект

Европейският законодателен акт за изкуствения интелект (ИИ) влезе в сила от началото на август, а България има срок до 2 август 2025 г. да определи национален орган, който да наблюдава прилагането на правилата за системите с ИИ и ще извършват дейности по надзора на пазара.

Това правило важи за всички държави членки от ЕС, посочват в официално съобщение от Европейската комисия. През март месец Европейският парламент прие първия в света всеобхватен регламент относно изкуствения интелект. Целта е да се гарантира, че ИИ, разработен и използван в ЕС, е надежден, с гаранции за защита на основните права на хората. Регламентът има за цел да се създаде хармонизиран вътрешен пазар за ИИ в ЕС, като се насърчава внедряването на тази технология и се създава благоприятна среда за иновации и инвестиции.

Със Законодателния акт за изкуствения интелект се въвежда далновидно определение за ИИ, основано на безопасността на продуктите и основан на риска подход в ЕС:

Минимален риск:

Повечето системи с ИИ, като например системите за препоръчване с ИИ и нежеланите филтри, попадат в тази категория. Тези системи не са изправени пред задължения съгласно Законодателния акт за изкуствения интелект поради минималния риск за правата и безопасността на гражданите. Дружествата могат доброволно да приемат допълнителни кодекси за поведение.

Специфичен риск за прозрачността: Системите с ИИ като чатботове трябва ясно да разкриват на ползвателите, че взаимодействат с машина. Определено съдържание, генерирано от ИИ, включително дълбинни фалшификати, трябва да бъде етикетирано като такова и потребителите трябва да бъдат информирани, когато се използват системи за биометрична категоризация или разпознаване на емоции. Освен това доставчиците ще трябва да проектират системите така, че съдържанието под формата на синтетично аудио, видео, текст и изображения да е маркирано в машинночетим формат и да е отбелязано като изкуствено създадено или манипулирано.

Висок риск:

От системите с ИИ, определени като високорискови, ще се изисква да отговарят на строги изисквания, включително системи за намаляване на риска, високо качество на наборите от данни, регистриране на дейността, подробна документация, ясна информация за ползвателите, човешки надзор и високо равнище на надеждност, точност и киберсигурност. Регулаторните лаборатории ще улеснят отговорните иновации и разработването на съответстващи на изискванията системи с ИИ. Такива високорискови системи с ИИ включват например системи с ИИ, използвани за набиране на персонал или за оценка дали някой има право да получи заем или да управлява автономни роботи.

Неприемлив риск:

Системите с ИИ, които се считат за несъмнена заплаха за основните права на хората, ще бъдат забранени. Това включва системи или приложения с ИИ, които манипулират човешкото поведение с цел заобикаляне на свободната воля на ползвателите, като например играчки, използващи гласова помощ, насърчаващи опасно поведение на малолетни и непълнолетни лица, системи, които позволяват „социално оценяване“ от правителства или дружества, и определени приложения на прогнозната полицейска дейност. Освен това, някои видове използване на биометрични системи ще бъдат забранени, например системите за разпознаване на емоции, използвани на работното място, и някои системи за категоризиране на хора или отдалечена биометрична идентификация в реално време за целите на правоприлагането на обществено достъпни места (с малки изключения).

За да се допълни тази система, със Законодателния акт за изкуствения интелект се въвеждат и правила за т.нар. модели на ИИ с общо предназначение, които са много способни модели на ИИ, проектирани да изпълняват голямо разнообразие от задачи, като генериране на текст, подобен на човека. Моделите на ИИ с общо предназначение все повече се използват като компоненти на приложенията с ИИ. Законодателният акт за изкуствения интелект ще гарантира прозрачност по веригата за създаване на стойност и ще обърне внимание на възможните системни рискове на най-подходящите модели.

Прилагане и изпълнение на правилата в областта на ИИ

Държавите членки разполагат със срок до 2 август 2025 г. да определят национални компетентни органи, които ще наблюдават прилагането на правилата за системите с ИИ и ще извършват дейности по надзор на пазара. Службатаза ИИ на Комисията ще бъде основният изпълнителен орган за Законодателния акт за ИИ на равнището на ЕС, както и правоприлагащ орган за правилата за моделите на ИИ с общо предназначение.

Три консултативни органа ще подкрепят прилагането на правилата. Европейският съвет по изкуствен интелект ще гарантира еднакво прилагане на Законодателния акт за изкуствения интелект във всички държави — членки на ЕС, и ще действа като основен орган за сътрудничество между Комисията и държавите членки. Научна група от независими експерти ще предлага технически съвети и принос относно правоприлагането. По-специално този панел може да изпраща предупреждения до Службата по ИИ относно рискове, свързани с модели на ИИ с общо предназначение. Службата за ИИ може също така да получава насоки от консултативен форум, съставен от различни заинтересовани страни.

На дружествата, които не спазват правилата, ще бъдат налагани глоби. Глобите биха могли да достигнат до 7 % от световния годишен оборот за нарушения на забранени приложения с ИИ, до 3 % за нарушения на други задължения и до 1,5 % за предоставяне на невярна информация.

Следващи стъпки

По-голямата част от правилата на Законодателния акт за изкуствения интелект ще започнат да се прилагат на 2 август 2026 г. Забраните на системите с ИИ, за които се счита, че представляват неприемлив риск, обаче ще започнат да се прилагат след шест месеца, докато правилата за т.нар. модели с ИИ с общо предназначение ще започнат да се прилагат след 12 месеца.

За да се преодолее преходният период преди пълното прилагане, Комисията стартира Пакта за ИИ. С тази инициатива разработчиците на ИИ се приканват доброволно да приемат ключови задължения по Законодателния акт за ИИ преди законоустановените срокове.

Комисията също така разработва насоки за определяне и подробно определяне на начина на прилагане на Законодателния акт за ИИ и улесняване на инструментите за съвместно регулиране като стандарти и кодекси за поведение. Комисията отправи покана за изразяване на интерес за участие в изготвянето на първия Кодекс за поведение в областта на ИИ с общо предназначение, както и консултация с участието на множество заинтересовани страни, даваща възможност на всички заинтересовани страни да изразят мнението си по първия Кодекс за поведение съгласно Законодателния акт за изкуствения интелект.

Свързани статии

Back to top button