Ustawa o sztucznej inteligencji wchodzi w życie
Dzień Otwarty w Instytucjach Europejskich 2024 

1 sierpnia 2024 r. wchodzi w życie europejski akt o sztucznej inteligencji (AI Act) . Celem aktu jest wspieranie odpowiedzialnego rozwoju i wdrażania sztucznej inteligencji w UE .

Zaproponowany przez Komisję w kwietniu 2021 r. i zatwierdzony przez Parlament Europejski i Radę w grudniu 2023 r., AI Act odnosi się do potencjalnych zagrożeń dla zdrowia, bezpieczeństwa i praw podstawowych obywateli. Zapewnia deweloperom i wdrażającym jasne wymagania i obowiązki dotyczące konkretnych zastosowań AI, jednocześnie zmniejszając obciążenia administracyjne i finansowe dla przedsiębiorstw.

Ustawa o sztucznej inteligencji wprowadza jednolite ramy dla wszystkich krajów UE, oparte na przyszłościowej definicji sztucznej inteligencji i podejściu opartym na ryzyku:

  • Minimalne ryzyko: większość systemów AI, takich jak filtry antyspamowe i gry wideo wykorzystujące sztuczną inteligencję, nie ma żadnych obowiązków wynikających z ustawy o sztucznej inteligencji, jednak firmy mogą dobrowolnie przyjąć dodatkowe kodeksy postępowania.
  • Konkretne ryzyko związane z przejrzystością: systemy takie jak chatboty muszą wyraźnie informować użytkowników, że wchodzą w interakcję z maszyną, a niektóre treści generowane przez sztuczną inteligencję muszą być odpowiednio oznaczone.
  • Wysokie ryzyko: systemy sztucznej inteligencji obarczone wysokim ryzykiem, takie jak oprogramowanie medyczne oparte na sztucznej inteligencji lub systemy sztucznej inteligencji wykorzystywane w rekrutacji, muszą spełniać rygorystyczne wymagania, w tym systemy ograniczania ryzyka, wysoką jakość zestawów danych, przejrzyste informacje o użytkownikach, nadzór ludzki itp.
  • Niedopuszczalne ryzyko: na przykład systemy sztucznej inteligencji, które umożliwiają rządom lub firmom „ocenę społeczną”, są uważane za wyraźne zagrożenie dla podstawowych praw człowieka i dlatego są zakazane.

UE aspiruje do bycia światowym liderem w dziedzinie bezpiecznej sztucznej inteligencji. Poprzez opracowanie silnych ram regulacyjnych opartych na prawach człowieka i podstawowych wartościach, UE może opracować ekosystem sztucznej inteligencji, który przyniesie korzyści wszystkim. Oznacza to lepszą opiekę zdrowotną , bezpieczniejszy i czystszy transport oraz ulepszone usługi publiczne dla obywateli . Wprowadza innowacyjne produkty i usługi , szczególnie w zakresie energii, bezpieczeństwa i opieki zdrowotnej, a także wyższą produktywność i bardziej wydajną produkcję dla przedsiębiorstw, podczas gdy rządy mogą korzystać z tańszych i bardziej zrównoważonych usług, takich jak transport, energia i gospodarka odpadami.

Niedawno Komisja rozpoczęła konsultacje w sprawie Kodeksu postępowania dla dostawców modeli sztucznej inteligencji ogólnego przeznaczenia (GPAI). Kodeks ten, przewidziany przez ustawę AI, będzie dotyczył kluczowych obszarów, takich jak przejrzystość, zasady dotyczące praw autorskich i zarządzanie ryzykiem. Dostawcy GPAI prowadzący działalność w UE, przedsiębiorstwa, przedstawiciele społeczeństwa obywatelskiego, posiadacze praw i eksperci akademiccy są zaproszeni do przesyłania swoich opinii i ustaleń, które zostaną uwzględnione w nadchodzącym projekcie Kodeksu postępowania dotyczącego modeli GPAI Komisji.

Przepisy dotyczące GPAI wejdą w życie za 12 miesięcy. Komisja spodziewa się sfinalizować Kodeks postępowania do kwietnia 2025 r. Ponadto informacje zwrotne z konsultacji będą również stanowić podstawę pracy Biura ds. AI, które będzie nadzorować wdrażanie i egzekwowanie przepisów ustawy AI dotyczących GPAI. 

Po więcej informacji

Wchodzi w życie europejska ustawa o sztucznej inteligencji – komunikat prasowy

Sztuczna inteligencja – pytania i odpowiedzi

Więcej o europejskim prawie dotyczącym sztucznej inteligencji

Doskonałość i zaufanie do sztucznej inteligencji

Ustawa o sztucznej inteligencji: Wypowiedz się na temat godnej zaufania, uniwersalnej sztucznej inteligencji

Europejskie Biuro ds. Sztucznej Inteligencji