Twój koszyk jest obecnie pusty!
Alicja Berger-Lach
Alicja Berger-Lach
Wyobraź sobie, że korzystasz z nowoczesnego narzędzia AI w swojej firmie, które zwiększa efektywność i oszczędza czas — ale może także powodować nieświadome łamanie prawa. Nowe unijne przepisy jasno wskazują, które praktyki związane ze sztuczną inteligencją są zakazane i mogą narazić przedsiębiorcę na poważne konsekwencje.
Zanim przejdziesz do dalszej części artykułu, może będziesz zainteresowany gotowymi wzorami umów i dokumentów prawnych, które oferuję. Zapewniam również profesjonalne wsparcie prawne dla firm.
Artykuł 5 rozporządzenia Akt w sprawie sztucznej inteligencji obowiązuje od 2 lutego 2025 roku. Co zmienia to w zakresie działalności firm? Jak wpłynie on na życie każdego człowieka? Zapraszam do przeczytania artykułu, w którym postaram się odpowiedzieć na te pytanie.
Unijne przepisy o sztucznej inteligencji dzielą systemy AI na cztery poziomy ryzyka:
Im większe zagrożenie dla prawa obowiązującego w UE, tym surowsze zasady.
W artykule 5 rozporządzenia opisano te zastosowania AI, które są uznane za szczególnie niebezpieczne i w związku z tym są one niedopuszczalne. Poniżej przedstawiam 8 zakazanych praktyk związanych ze sztuczną inteligencją (AI).
Manipulacja zachowaniem bez wiedzy osoby lub stosowanie technik podprogowych jest niedopuszczalna. Nie wolno używać AI, która w ukryty sposób wpływa na ludzi, np. przez manipulację lub podsuwanie informacji tak, by podejmowali decyzje, których normalnie by nie podjęli – i przez to mogli sobie lub innym zaszkodzić.
👉 Przykład: chatbot udający przyjaciela, który przekonuje starszą osobę do przekazania oszczędności na fałszywy cel.
Wykorzystywanie słabości ludzi (np. przez wiek, niepełnosprawność) jest absolutnie niedopuszczalne. Zakazane jest używanie AI, która specjalnie wykorzystuje czyjąś trudną sytuację życiową (np. biedę, chorobę) w celu wpływania na jego decyzje.
👉 Przykład: aplikacja reklamująca niepotrzebne pożyczki osobom starszym, które mają niskie dochody.
Nie wolno używać AI do oceniania ludzi (np. na podstawie ich zachowania lub cech osobowości), jeśli skutkiem tego jest niesprawiedliwe, dyskryminujące traktowanie – zwłaszcza w sytuacjach niezwiązanych z pierwotnym kontekstem zbierania danych.
👉 Przykład: ktoś dostaje odmowę kredytu, bo system uznał, że jego znajomi w mediach społecznościowych są „mało wiarygodni”.
Nie wolno używać AI do oceniania, czy ktoś może popełnić przestępstwo, wyłącznie na podstawie cech osobowości lub profilu psychologicznego.
👉 Przykład: system twierdzi, że ktoś może być niebezpieczny, bo często słucha agresywnej muzyki i jest introwertykiem.
Zakaz ten nie dotyczy systemów AI przeznaczonych do wspierania dokonywanej przez człowieka oceny udziału danej osoby w działalności przestępczej, jeśli ocena ta opiera się na obiektywnych i dających się zweryfikować faktach bezpośrednio związanych z działalnością przestępczą.
Nie wolno budować baz danych do rozpoznawania twarzy, zbierając zdjęcia z internetu lub kamer bez wiedzy i zgody osób.
👉 Przykład: firma trenuje AI na zdjęciach ludzi z Instagrama, żeby tworzyć systemy rozpoznające twarze na ulicy.
Zakazane jest używanie AI do analizowania emocji pracowników w pracy lub uczniów w szkole, chyba że chodzi o bezpieczeństwo lub leczenie.
👉 Przykład: kamera w szkole śledzi mimikę uczniów, by sprawdzić, kto „nudzi się” na lekcji.
Nie wolno używać AI do przypisywania ludziom cech (np. rasy, poglądów i przekonań religijnych, politycznych lub światopoglądowych, orientacji seksualnej) na podstawie ich danych biometrycznych, jak wygląd czy głos.
👉 Przykład: system ocenia, że ktoś może być określonej religii tylko na podstawie rysów twarzy.
Nie wolno stosować systemów rozpoznających ludzi w czasie rzeczywistym na ulicach – chyba że chodzi o naprawdę wyjątkowe sytuacje, np.:
– ściganie poważnych przestępstw,
👉 Przykład: kamery na dworcu automatycznie skanują twarze przechodniów, żeby znaleźć podejrzanych. Jest to zakazane, jeśli nie ma konkretnej, ważnej podstawy.
– poszukiwanie ofiar porwań,
– zapobieganie zamachom.
Z powyższego wynika, że chodzi o systemy, które są sprzeczne z wartościami Unii Europejskiej oraz łamią podstawowe prawa. Podkreślenia wymaga przy tym fakt, że celem Aktu w sprawie sztucznej inteligencji nie jest zapobieganie rozwoju technologii, lecz jedynie stworzenie ram prawnych. Miejmy nadzieję, że stanie się on wsparciem dla transparentności i bezpieczeństwa rozwiązań AI, a nawet zachęci do innowacji.
Nazywam się Alicja Berger-Lach i jestem Radcą Prawnym. W zawodzie prawnika pracuję od 2008 roku, zaś w branży IT działam od 2015 roku.
Specjalizuję się w prawie gospodarczym i prawie pracy, a także w szeroko pojętych aspektach prawnych związanych z nowymi technologiami, Internetem i E-commerce.
Dodaj komentarz