Akt ws. sztucznej inteligencji: pierwsze przepisy regulujące sztuczną inteligencję

Sztuczną inteligencję w UE będą regulować pierwsze na świecie kompleksowe przepisy dotyczące AI – akt o sztucznej inteligencji. Dowiedz się, jak będą Cię chronić.

Mężczyzna stoi przed wygenerowaną komputerowo postacią z językiem programowania w tle.
Sztuczna inteligencja w działaniu: ilustracja do tego artykułu została wygenerowana przez sztuczną inteligencję.

W ramach swojej strategii transformacji cyfrowej, UE chce uregulować sztuczną inteligencję (AI) w sposób zapewniający lepsze warunki do rozwoju i wykorzystania tej innowacyjnej technologii. Sztuczna inteligencja może przynieść wiele korzyści – np. lepszą opiekę zdrowotną, bezpieczniejszy i czystszy transport, bardziej wydajną produkcję oraz tańszą i bardziej zrównoważoną energię.

W kwietniu 2021 r. Komisja Europejska zaproponowała pierwsze unijne ramy legislacyjne dotyczące sztucznej inteligencji. Projekt analizuje i klasyfikuje systemy AI, które mogą być używane w różnych aplikacjach, według ryzyka, jakie stwarzają dla użytkowników. Różne poziomy ryzyka będą niosły ze sobą mniej lub więcej obowiązków.

Dowiedz się więcej o tym, czym jest sztuczna inteligencja i jak jest wykorzystywana

Oczekiwania Parlamentu wobec przepisów dot. sztucznej inteligencji

Priorytetem Parlamentu Europejskiego jest dopilnowanie, aby systemy sztucznej inteligencji stosowane w UE były bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska. Systemy sztucznej inteligencji powinny być nadzorowane przez ludzi, aby zapobiegać szkodliwym skutkom.

Parlament chce również ustalenia neutralnej technologicznie, jednolitej definicji sztucznej inteligencji, którą można będzie zastosować do przyszłych systemów sztucznej inteligencji.

Dowiedz się więcej o pracach Parlamentu nad sztuczną inteligencją i jego wizji dla sztucznej inteligencji

Akt o AI: różne przepisy dla różnych poziomów ryzyka

Nowe przepisy określają obowiązki dostawców i użytkowników w zależności od poziomu ryzyka reprezentowanego przez sztuczną inteligencję. Chociaż wiele systemów sztucznej inteligencji stwarza minimalne ryzyko, należy je ocenić.

Systemy AI niedopuszczalnego ryzyka

Systemy sztucznej inteligencji stwarzające niedopuszczalne ryzyko, czyli uważane za zagrożenie dla ludzi, zostaną zakazane. To m.in.:

  • Poznawczo-behawioralna manipulacja ludźmi lub określonymi wrażliwymi grupami: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań.
  • Identyfikacja biometryczna i kategoryzacja osób fizycznych.
  • Scoring (klasyfikacja punktowa) obywateli: klasyfikacja ludzi na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech osobistych.
  • Systemy identyfikacji biometrycznej działające w czasie rzeczywistym i zdalnie, takie jak rozpoznawanie twarzy.

Pewne wyjątki mogą być dopuszczalne do celów egzekwowania prawa. Systemy zdalnej identyfikacji biometrycznej działające w czasie rzeczywistym będą dozwolone w ograniczonej liczbie poważnych przypadków, natomiast systemy identyfikujące ze znacznym opóźnieniem będą mogły być używane do ścigania poważnych przestępstw, ale wyłącznie po zgodzie sądu.

Systemy AI wysokiego ryzyka

Systemy sztucznej inteligencji negatywnie wpływające na bezpieczeństwo lub prawa podstawowe będą uznane za systemy wysokiego ryzyka.

Zostaną podzielone na dwie kategorie:

1) Systemy sztucznej inteligencji stosowane w produktach objętych unijnymi przepisami dotyczącymi bezpieczeństwa produktów. To np. zabawki, lotnictwo, samochody, urządzenia medyczne i windy.

2) Systemy sztucznej inteligencji należące do ośmiu konkretnych obszarów, które będą musiały zostać zarejestrowane w unijnej bazie danych:

  • Zarządzanie i eksploatacja infrastruktury krytycznej.
  • Edukacja i szkolenie zawodowe.
  • Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia.
  • Dostęp do i korzystanie z podstawowych usług prywatnych oraz usług i korzyści publicznych.
  • Ściganie przestępstw.
  • Zarządzanie migracją, azylem i kontrolą granic.
  • Pomoc w interpretacji prawnej i stosowaniu prawa.

Wszystkie systemy AI wysokiego ryzyka będą oceniane przed wprowadzeniem na rynek, a także przez cały cykl ich życia.

Obywatele będą mieli prawo do składania skarg dotyczących systemów sztucznej inteligencji do wyznaczonych organów krajowych.

Wymagania przejrzystości

Systemy sztucznej inteligencji tworzące nowe treści (np. audio, obrazy, tekst, filmy, etc.), czyli tzw. generatywna sztuczna inteligencja (np. ChatGPT), nie zostały określone jako prezentujące wysoki poziom ryzyka. Będą jednak musiały przestrzegać wymogów dotyczących przejrzystości oraz praw autorskich UE, poprzez:

  • Ujawnienie, że treść została wygenerowana przez sztuczną inteligencję.
  • Zaprojektowanie modelu tak, aby nie generował on nielegalnych treści.
  • Publikowanie streszczeń chronionych prawem autorskim danych wykorzystywanych do szkolenia systemów sztucznej inteligencji.

Modele sztucznej inteligencji ogólnego przeznaczenia o dużym oddziaływaniu, które mogą stwarzać ryzyko systemowe, takie jak bardziej zaawansowany model sztucznej inteligencji GPT-4, musiałyby zostać poddane szczegółowej ocenie i zgłaszać Komisji Europejskie wszelkie poważne incydenty.

Treści multimedialne, które zostały utworzone lub przetworzone przy użyciu sztucznej inteligencji, takie jak obrazy, pliki dźwiękowe lub wideo (na przykład tzw. deepfake – generowane przez AI fałszywe filmy), powinny być wyraźnie oznaczone jako treści wygenerowane przez sztuczną inteligencję, aby odbiorcy byli tego świadomi i mogli rozpoznać takie materiały.

Wspieranie innowacji

Prawo ma stworzyć możliwości dla małych i średnich przedsiębiorstw oraz start-upów do rozwijania i szkolenia modeli sztucznej inteligencji zanim staną się one dostępne dla ogółu społeczeństwa.

Dlatego wymaga od rządów krajowych zapewnienia przedsiębiorstwom odpowiedniego środowiska badawczego, które imitowałoby warunki zbliżone do rzeczywistych.

Kolejne kroki

Uzgodniony tekst ma zostać ostatecznie przyjęty w kwietniu 2024 roku. Ma w pełni obowiązywać 24 miesiące po wejściu w życie. Niektóre jego zapisy mają być przestrzegane wcześniej:

  • zakaz systemów sztucznej inteligencji stwarzających niedopuszczalne ryzyko będzie obowiązywać sześć miesięcy po wejściu w życie prawa
  • kodeks postępowania będzie obowiązywać po dziewięciu miesiącach od wejścia w życie
  • przepisy o sztucznej inteligencji ogólnego przeznaczenia, która musi przestrzegać wymagań przejrzystości, będą obowiązywać dwanaście miesięcy od wejścia w życie

Systemy AI wysokiego ryzyka będą miały więcej czasu na spełnienie nałożonych na nie wymagań, ponieważ zaczną one obowiązywać 36 miesięcy po tym, jak prawo wejdzie w życie.

Więcej o środkach cyfrowych UE:

Briefing