1 sierpnia 2024 r. wchodzi w życie europejski akt o sztucznej inteligencji (AI Act) . Celem aktu jest wspieranie odpowiedzialnego rozwoju i wdrażania sztucznej inteligencji w UE .
Zaproponowany przez Komisję w kwietniu 2021 r. i zatwierdzony przez Parlament Europejski i Radę w grudniu 2023 r., AI Act odnosi się do potencjalnych zagrożeń dla zdrowia, bezpieczeństwa i praw podstawowych obywateli. Zapewnia deweloperom i wdrażającym jasne wymagania i obowiązki dotyczące konkretnych zastosowań AI, jednocześnie zmniejszając obciążenia administracyjne i finansowe dla przedsiębiorstw.
Ustawa o sztucznej inteligencji wprowadza jednolite ramy dla wszystkich krajów UE, oparte na przyszłościowej definicji sztucznej inteligencji i podejściu opartym na ryzyku:
- Minimalne ryzyko: większość systemów AI, takich jak filtry antyspamowe i gry wideo wykorzystujące sztuczną inteligencję, nie ma żadnych obowiązków wynikających z ustawy o sztucznej inteligencji, jednak firmy mogą dobrowolnie przyjąć dodatkowe kodeksy postępowania.
- Konkretne ryzyko związane z przejrzystością: systemy takie jak chatboty muszą wyraźnie informować użytkowników, że wchodzą w interakcję z maszyną, a niektóre treści generowane przez sztuczną inteligencję muszą być odpowiednio oznaczone.
- Wysokie ryzyko: systemy sztucznej inteligencji obarczone wysokim ryzykiem, takie jak oprogramowanie medyczne oparte na sztucznej inteligencji lub systemy sztucznej inteligencji wykorzystywane w rekrutacji, muszą spełniać rygorystyczne wymagania, w tym systemy ograniczania ryzyka, wysoką jakość zestawów danych, przejrzyste informacje o użytkownikach, nadzór ludzki itp.
- Niedopuszczalne ryzyko: na przykład systemy sztucznej inteligencji, które umożliwiają rządom lub firmom „ocenę społeczną”, są uważane za wyraźne zagrożenie dla podstawowych praw człowieka i dlatego są zakazane.
UE aspiruje do bycia światowym liderem w dziedzinie bezpiecznej sztucznej inteligencji. Poprzez opracowanie silnych ram regulacyjnych opartych na prawach człowieka i podstawowych wartościach, UE może opracować ekosystem sztucznej inteligencji, który przyniesie korzyści wszystkim. Oznacza to lepszą opiekę zdrowotną , bezpieczniejszy i czystszy transport oraz ulepszone usługi publiczne dla obywateli . Wprowadza innowacyjne produkty i usługi , szczególnie w zakresie energii, bezpieczeństwa i opieki zdrowotnej, a także wyższą produktywność i bardziej wydajną produkcję dla przedsiębiorstw, podczas gdy rządy mogą korzystać z tańszych i bardziej zrównoważonych usług, takich jak transport, energia i gospodarka odpadami.
Niedawno Komisja rozpoczęła konsultacje w sprawie Kodeksu postępowania dla dostawców modeli sztucznej inteligencji ogólnego przeznaczenia (GPAI). Kodeks ten, przewidziany przez ustawę AI, będzie dotyczył kluczowych obszarów, takich jak przejrzystość, zasady dotyczące praw autorskich i zarządzanie ryzykiem. Dostawcy GPAI prowadzący działalność w UE, przedsiębiorstwa, przedstawiciele społeczeństwa obywatelskiego, posiadacze praw i eksperci akademiccy są zaproszeni do przesyłania swoich opinii i ustaleń, które zostaną uwzględnione w nadchodzącym projekcie Kodeksu postępowania dotyczącego modeli GPAI Komisji.
Przepisy dotyczące GPAI wejdą w życie za 12 miesięcy. Komisja spodziewa się sfinalizować Kodeks postępowania do kwietnia 2025 r. Ponadto informacje zwrotne z konsultacji będą również stanowić podstawę pracy Biura ds. AI, które będzie nadzorować wdrażanie i egzekwowanie przepisów ustawy AI dotyczących GPAI.
Po więcej informacji
Wchodzi w życie europejska ustawa o sztucznej inteligencji – komunikat prasowy
Sztuczna inteligencja – pytania i odpowiedzi
Więcej o europejskim prawie dotyczącym sztucznej inteligencji