Jakie praktyki są zakazane przez Akt o Sztucznej Inteligencji?

Wyobraź sobie, że korzystasz z nowoczesnego narzędzia AI w swojej firmie, które zwiększa efektywność i oszczędza czas — ale może także powodować nieświadome łamanie prawa. Nowe unijne przepisy jasno wskazują, które praktyki związane ze sztuczną inteligencją są zakazane i mogą narazić przedsiębiorcę na poważne konsekwencje.

Jakie praktyki są zakazane przez Akt o Sztucznej Inteligencji?

Artykuł 5 rozporządzenia Akt w sprawie sztucznej inteligencji obowiązuje od 2 lutego 2025 roku. Co zmienia to w zakresie działalności firm? Jak wpłynie on na życie każdego człowieka? Zapraszam do przeczytania artykułu, w którym postaram się odpowiedzieć na te pytanie.

Unijne przepisy o sztucznej inteligencji

Unijne przepisy o sztucznej inteligencji dzielą systemy AI na cztery poziomy ryzyka:

  • niedopuszczalne,
  • wysokie,
  • średnie,
  • minimalne.

Im większe zagrożenie dla prawa obowiązującego w UE, tym surowsze zasady.

W artykule 5 rozporządzenia opisano te zastosowania AI, które są uznane za szczególnie niebezpieczne i w związku z tym są one niedopuszczalne. Poniżej przedstawiam 8 zakazanych praktyk związanych ze sztuczną inteligencją (AI).

Manipulacja zachowaniem bez wiedzy osoby

Manipulacja zachowaniem bez wiedzy osoby lub stosowanie technik podprogowych jest niedopuszczalna. Nie wolno używać AI, która w ukryty sposób wpływa na ludzi, np. przez manipulację lub podsuwanie informacji tak, by podejmowali decyzje, których normalnie by nie podjęli – i przez to mogli sobie lub innym zaszkodzić.
👉 Przykład: chatbot udający przyjaciela, który przekonuje starszą osobę do przekazania oszczędności na fałszywy cel.

Wykorzystywanie słabości ludzi

Wykorzystywanie słabości ludzi (np. przez wiek, niepełnosprawność) jest absolutnie niedopuszczalne. Zakazane jest używanie AI, która specjalnie wykorzystuje czyjąś trudną sytuację życiową (np. biedę, chorobę) w celu wpływania na jego decyzje.
👉 Przykład: aplikacja reklamująca niepotrzebne pożyczki osobom starszym, które mają niskie dochody.

Społeczna punktacja (social scoring)

Nie wolno używać AI do oceniania ludzi (np. na podstawie ich zachowania lub cech osobowości), jeśli skutkiem tego jest niesprawiedliwe, dyskryminujące traktowanie – zwłaszcza w sytuacjach niezwiązanych z pierwotnym kontekstem zbierania danych.
👉 Przykład: ktoś dostaje odmowę kredytu, bo system uznał, że jego znajomi w mediach społecznościowych są „mało wiarygodni”.

Przewidywanie ryzyka popełnienia przestępstw tylko na podstawie profilu osoby

Nie wolno używać AI do oceniania, czy ktoś może popełnić przestępstwo, wyłącznie na podstawie cech osobowości lub profilu psychologicznego.
👉 Przykład: system twierdzi, że ktoś może być niebezpieczny, bo często słucha agresywnej muzyki i jest introwertykiem.
Zakaz ten nie dotyczy systemów AI przeznaczonych do wspierania dokonywanej przez człowieka oceny udziału danej osoby w działalności przestępczej, jeśli ocena ta opiera się na obiektywnych i dających się zweryfikować faktach bezpośrednio związanych z działalnością przestępczą.

Tworzenie baz danych twarzy bez zgody

Nie wolno budować baz danych do rozpoznawania twarzy, zbierając zdjęcia z internetu lub kamer bez wiedzy i zgody osób.
👉 Przykład: firma trenuje AI na zdjęciach ludzi z Instagrama, żeby tworzyć systemy rozpoznające twarze na ulicy.

Ocenianie emocji w pracy i szkole

Zakazane jest używanie AI do analizowania emocji pracowników w pracy lub uczniów w szkole, chyba że chodzi o bezpieczeństwo lub leczenie.
👉 Przykład: kamera w szkole śledzi mimikę uczniów, by sprawdzić, kto „nudzi się” na lekcji.

Kategoryzowanie ludzi na podstawie cech biometrycznych

Nie wolno używać AI do przypisywania ludziom cech (np. rasy, poglądów i przekonań religijnych, politycznych lub światopoglądowych, orientacji seksualnej) na podstawie ich danych biometrycznych, jak wygląd czy głos.
👉 Przykład: system ocenia, że ktoś może być określonej religii tylko na podstawie rysów twarzy.

Zdalna identyfikacja biometryczna w miejscach publicznych

Nie wolno stosować systemów rozpoznających ludzi w czasie rzeczywistym na ulicach – chyba że chodzi o naprawdę wyjątkowe sytuacje, np.:
– ściganie poważnych przestępstw,
👉 Przykład: kamery na dworcu automatycznie skanują twarze przechodniów, żeby znaleźć podejrzanych. Jest to zakazane, jeśli nie ma konkretnej, ważnej podstawy.
– poszukiwanie ofiar porwań,
– zapobieganie zamachom.

Podsumowanie

Z powyższego wynika, że chodzi o systemy, które są sprzeczne z wartościami Unii Europejskiej oraz łamią podstawowe prawa. Podkreślenia wymaga przy tym fakt, że celem Aktu w sprawie sztucznej inteligencji nie jest zapobieganie rozwoju technologii, lecz jedynie stworzenie ram prawnych. Miejmy nadzieję, że stanie się on wsparciem dla transparentności i bezpieczeństwa rozwiązań AI, a nawet zachęci do innowacji.


Masz pytanie? Zapraszam do dyskusji

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Radca Prawny Alicja Berger-Lach Kancelaria e-commerce it

Nazywam się Alicja Berger-Lach i jestem Radcą Prawnym. W zawodzie prawnika pracuję od 2008 roku, zaś w branży IT działam od 2015 roku.

Specjalizuję się w prawie gospodarczym i prawie pracy, a także w szeroko pojętych aspektach prawnych związanych z nowymi technologiami, Internetem i E-commerce.