14 czerwca 2023 roku odbyło się głosowanie Parlamentu Europejskiego nad aktem, który ma gruntownie uregulować kwestię sztucznej inteligencji w Unii Europejskiej. Akt o sztucznej inteligencji (AI Akt) został przyjęty zdecydowaną większością głosów (499 głosów za, 93 wstrzymujących się oraz 29 przeciw), mimo pewnych kontrowersji z nim związanych. Kontrowersje te dotyczyły umożliwienia organom wykorzystywania systemów sztucznej inteligencji do identyfikacji ludzi min. w celu zapobiegania atakom terrorystycznym. Takie uprawnienie budzi silne kontrowersje, biorąc pod uwagę, że takie wykorzystywanie systemów sztucznej inteligencji narusza podstawowe zasady państwa demokratycznego. W szczególności widać to na przykładzie Chin, które już od kilku lat stosują tzw. Scoring, czyli klasyfikację obywateli na podstawie ich zachowań, statusu społecznego czy cech fizycznych. Obawa przed takim wykorzystaniem systemów sztucznej inteligencji w krajach Unii Europejskiej doprowadziła do odrzucenia poprawki, umożliwiającej identyfikacje obywateli przez organy śledcze. Jak podkreślił Parlament Europejski w swoim stanowisku, nadrzędnym celem AI Akt jest ochrona wartości demokratycznych i ograniczenia negatywnych skutków wykorzystywania sztucznej inteligencji. W związku z tym, wykorzystywanie systemów sztucznej inteligencji do identyfikacji obywateli naruszałoby podstawowe zasady demokratycznego państwa.
Co do samej treści aktu, to ustawodawca głównie skoncentrował się na klasyfikacji systemów sztucznej inteligencji pod względem stopnia ryzyka. AI Akt dzieli systemy sztucznej inteligencji na 4 kategorie. Każda kategoria związana jest z poziomem ryzyka, które wiąże się z korzystaniem z danego systemu sztucznej inteligencji: nieakceptowalnym ryzykiem, wysokim ryzykiem, niskim ryzykiem i ryzykiem minimalnym.
Poprzez nieakceptowalne ryzyko należy rozumieć takie ryzyko, które stwarza zagrożenie dla obywateli. Do tej kategorii należy zaliczyć sztuczną inteligencję, która wykorzystuje technologię biometryczną do identyfikacji i kategoryzacji ludzi. W szczególności dotyczy to technologii, która rozpoznaje ludzi w czasie rzeczywistym.
Natomiast sztuczna inteligencja, która charakteryzuje się wysokim stopniem ryzyka, zagraża bezpieczeństwu obywateli i prawom podstawowym. Z tego też względu, będzie ona mogła być wykorzystywana jedynie po spełnieniu szeregu wymogów oraz będzie podlegała ocenie przez cały okres funkcjonowania. AI Akt kategoryzuje systemy sztucznej inteligencji o wysokim stopniu ryzyka, na:
- Systemy sztucznej inteligencji, do których stosuje się przepisy unijne dotyczące bezpieczeństwa produktów.
- Systemy sztucznej inteligencji, na które nałożono obowiązek rejestracji w unijnej bazie danych. W ramach tej kategorii, systemy sztucznej inteligencji będą dzielić się na 8 obszarów takich jak: edukacja szkolna i szkolenie zawodowe, zatrudnienie, zarządzanie pracownikami, zarządzanie i eksploatacja infrastruktury krytycznej, ściganie przestępstw, dostęp do podstawowych usług prywatnych, pomoc prawna, ściganie przestępstw oraz biometryczna identyfikacja i klasyfikacja osób fizycznych.
Systemy sztucznej inteligencji, które charakteryzują się niskim lub minimalnym ryzykiem, również będą musiały spełnić pewne wymogi. Przede wszystkim jest to wymóg transparentności, tzn. takie systemy sztucznej inteligencji powinny być na tyle przejrzyste, aby użytkownik mógł rozpoznać, że korzysta z sztucznej inteligencji oraz umożliwiać użytkownikom podejmowanie świadomych decyzji.
Głównymi podmiotami, których będzie dotyczył AI Akt są dostawcy i użytkownicy sztucznej inteligencji. Na dostawców systemów sztucznej inteligencji nałożono wiele obowiązków, które będą uzależnione od tego jakiego rodzaju ryzyko wiąże się z wykorzystywaniem ich produktów. Jeżeli system sztucznej inteligencji danego dostawcy zostanie zaklasyfikowany jako system wysokiego ryzyka, to taki dostawca będzie zobowiązany do rejestracji systemu w odpowiedniej bazie danych. Ciekawie wygląda kwestia Chatu GPT, który jest klasyfikowany jako generatywny system sztucznej inteligencji. Generatywne systemy sztucznej inteligencji tworzą nowe teksty, obrazy, grafiki, na podstawie opisów podanych przez użytkowników. Takie systemy są problematyczne z punktu widzenia prawa autorskiego. Z tego też względu Chat GPT oraz inne generatywne systemy sztucznej inteligencji zostały sklasyfikowane jako systemy wysokiego ryzyka. W związku z czym Chat GPT oraz inne generatywne systemy sztucznej inteligencji, będą musiały spełnić takie wymogi:
- stworzenie takiego systemu sztucznej inteligencji, który nie będzie publikował treści nielegalnych,
- informowania użytkownika, że treść została stworzona przez sztuczną inteligencje,
- dokumentowanie przypadku użycia utworów objętych prawami autorskimi.
Takie wymogi nałożone na dostawców systemów sztucznej inteligencji znacznie utrudniają tworzenie tych systemów. Mimo, że wiele największych dostawców takich jak Google czy Facebook, postulowało o wprowadzenie przepisów dotyczących sztucznej inteligencji, ostatecznie obecny kształt AI Akt nie jest według nich korzystny dla całej branży. Jak podkreślali przedstawiciele największych koncernów zajmujących się sztuczną inteligencją, obecny AI Akt w znaczny sposób ogranicza korzystanie i tworzenie systemów sztucznej inteligencji, co może doprowadzić do spowolnienia rozwoju tej technologii. Z tego względu, Google po przyjęciu AI Akt przez Parlament odwołał premierę swojego nowego czatbota Al Bard w Unii Europejskiej. Czy taka decyzja doprowadzi do złagodzenia AI Akt? Obecny kształt AI Akt nie jest ostateczny, ponieważ po jego przyjęciu, rozpoczną się negocjacje z Radą Europy oraz pomiędzy państwami członkowskimi. Czy negocjacje doprowadzą do wprowadzenia znaczących zmian w AI Akt, złagodzenia go lub zaostrzenia wymogów stawianym dostawcom systemów sztucznej inteligencji? Na to pytanie ciężko jest odpowiedzieć. Z pewnością Unii Europejskiej zależy na implementacji takiego aktu o sztucznej inteligencji, który będzie ochronił obywateli przed negatywnymi skutkami korzystania z niej oraz który będzie przykładem dla innych państw, w jaki sposób regulować problematykę sztucznej inteligencji. Podobnie jak było z RODO, na którym USA bazowało swoje regulacje dotyczące ochrony danych osobowych. Natomiast nie wiadomo czy postulaty dostawców systemów sztucznej inteligencji, wpłyną na ostateczny kształt AI Akt. Z pewnością Unia powinna wziąć głos branży pod uwagę, nie mniej złagodzenie AI Akt wydaje się być mało prawdopodobne.
Niniejszy alert ma charakter informacyjny i nie jest to porada prawna.
autor: