Регламентът на ЕС относно ИИ влиза в сила през август 2024 г
Nach dem ersten Vorschlag der Europäischen Kommission im April 2021 hat das Europäische Parlament die EU-Verordnung über künstliche Intelligenz verabschiedet. Diese wurde im Juli 2024 im Amtsblatt der Europäischen Union veröffentlicht und liegt nun in allen 24 Amtssprachen der EU-Mitgliedstaaten vor. Offiziell tritt die Verordnung im August 2024 in Kraft, wobei die meisten Bestimmungen erst zwei Jahre später anwendbar sind. Für einzelne Bestimmungen gelten jedoch andere Fristen. Die Verordnung legt Verpflichtungen für Unternehmen fest, die künstliche Intelligenz Systeme in der Europäischen Union entwickeln und/oder nutzen.
График за регулиране на ИИ на ЕС
Регламентът на ЕС за ИИ ще бъде разработен и приложен съгласно следния график:
Април 2021 г.: Първо предложение от Европейската комисия
Март 2024 г.: Приет от Европейския парламент
Юли 2024 г.: Официална публикация в Официален вестник на ЕС
Август 2024 г.: Регламентът влиза в сила
Средата на 2025 г.: Пълно прилагане във всички държави-членки на ЕС
Какво представлява Европейският регламент за изкуствения интелект?
Das europäische KI-Gesetz 2024 ist eine Verordnung der Europäischen Kommission, die sicherstellen soll, dass KI-Systeme „sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich“ eingesetzt werden. Die Verordnung soll regeln, wie KI-Systeme von „Anbietern“ und „Betreibern“ von KI-Systemen entsprechend den von ihnen ausgehenden Risiken angemessen gehandhabt werden können. Ein „Anbieter“ von KI-Systemen ist im weitesten Sinne ein Unternehmen, das ein KI-System unter seiner eigenen Marke anbietet oder entwickelt. Betreibern sind diejenigen, die KI-Technologien nutzen. Daher kann jedes Unternehmen zu dieser Gruppe gehören. Je höher das Risiko des KI-Systems ist, desto strenger sind die regulatorischen Anforderungen.
Някои ключови моменти от правото на ЕС за ИИ
- Класификация въз основа на риска: Законът за изкуствения интелект класифицира системите за изкуствен интелект в различни нива на риск, всяко със специфични регулаторни изисквания за управление на техните потенциални въздействия.
- Изисквания за прозрачност: Високорисковите AI системи трябва да отговарят на стриктни изисквания за прозрачност и водене на записи, за да осигурят отчетност и проследимост.
- Човешки надзор: Някои системи с изкуствен интелект изискват човешки надзор за смекчаване на рисковете и поддържане на етични стандарти.
Нива на риск в законодателството на ЕС относно ИИ
Законът за ИИ определя четири нива на риск за системите с ИИ, всяко от които е свързано със специфични регулаторни изисквания:
Източник : Официална публикация на Европейската комисия относно закона за ИИ
Неприемлив риск
Системите с изкуствен интелект, които са под това ниво на риск, представляват ясна заплаха и са строго забранени. Примерите включват манипулиране на поведението чрез когнитивни техники като играчки с гласово управление, които подвеждат децата към опасно поведение, или системи за социална оценка, които категоризират хората въз основа на тяхното поведение или лични характеристики.
Високорискови AI системи
AI системите в тази категория могат да имат значително въздействие върху здравето, безопасността или основните права. Примери за това включват ИИ в управлението на критична инфраструктура, образованието, заетостта и правоприлагането. Всички AI системи с висок рисков потенциал трябва да бъдат подложени на строги тестове, преди да бъдат пуснати на пазара и през целия им живот. Физическите лица имат право да докладват притеснения относно системите с ИИ на съответните национални органи.
Ограничен риск
Тези AI системи представляват нисък риск и са предмет на изисквания за прозрачност. Например потребителите, които взаимодействат с чатботове, трябва да бъдат информирани, че говорят с AI. Доставчиците трябва също така да гарантират, че генерираното от AI съдържание, особено по теми от обществен интерес, е ясно маркирано като изкуствено генерирано, независимо дали е текст, аудио или видео.
Минимален или никакъв риск
AI системите с минимален или никакъв риск не са обект на допълнителни регулаторни изисквания. Примери за това включват контролирани от AI видео игри и филтри за спам.
Съответствие и AI: Какво трябва да направят компаниите
Както Европейският съвет обясни в съобщение за пресата през май , важно е да се направи оценка на въздействието върху основните права, преди високорискова AI система да бъде внедрена от определени компании, предоставящи обществени услуги.
Доставчиците на AI системи трябва да имат предвид няколко точки:
- Извършете оценка на риска, като определите рисковата категория на AI системата и приложите необходимите защитни мерки.
- Създайте техническа документация, за да демонстрирате съответствие и я изпратете на властите за преглед.
- Разработете системата AI за автоматично регистриране на събития за откриване на рискове и системни промени.
- Създайте насоки за операторите, за да гарантирате, че изискванията са изпълнени.
Въпреки че операторите нямат същите задължения като доставчиците, Законът за ИИ изисква от тях да спазват насоките за използване, да осигурят организационно и техническо съответствие и да извършат оценка на въздействието върху защитата на данните, преди да внедрят високорискови системи с ИИ.
Неспазването на закона за ИИ на ЕС може да доведе до глоби, вариращи от 35 милиона евро, или 7% от глобалния оборот, до 7,5 милиона евро, или 1,5% от оборота, в зависимост от сериозността на нарушението и размера на компанията.
Цифровите цели на Европа и Европейската стратегия за данни , определени за 2030 г., имат за цел да насърчават лоялната конкуренция и да увеличат прозрачността в онлайн услугите. За компаниите това означава, че те трябва да гарантират, че техните процеси поддържат тези ценности за защита на данните. Наскоро приетите закони, включително Закона за цифровите услуги и Закона за цифровите пазари , подчертават значението на честната конкуренция и прозрачността. Като се занимават с вътрешни процеси и ги преразглеждат на ранен етап, както доставчиците, така и потребителите на AI системи могат да избегнат глоби и да увеличат доверието на потребителите. Подобрете процесите си за съответствие днес, като щракнете тук, за да започнете.