Nowe regulacje dotyczące AI: Co nas czeka od 1 sierpnia 2024?

AI Act, czyli Rozporządzenie w sprawie Sztucznej Inteligencji, to unijny akt prawny mający na celu regulację rozwoju i stosowania sztucznej inteligencji w krajach członkowskich Unii Europejskiej. Jego głównym celem jest zapewnienie bezpieczeństwa, transparentności i etycznego wykorzystania AI, jednocześnie promując innowacje. AI Act wprowadza obowiązki dla dostawców i użytkowników systemów AI, określa zakazane praktyki oraz ustanawia sankcje za naruszenia. Rozporządzenie uwzględnia różne kategorie ryzyka związane z AI, w tym systemy wysokiego ryzyka, które będą podlegały bardziej rygorystycznym regulacjom.

Nowe regulacje AI: Co nas czeka od 1 sierpnia 2024?

Kiedy wchodzą w życie przepisy?

Od 1 sierpnia 2024 r. zaczynają obowiązywać przepisy dotyczące sztucznej inteligencji, znane jako AI Act. Jednakże, podobnie jak w przypadku RODO, pełne wdrożenie nastąpi później. Większość regulacji zacznie obowiązywać dopiero od 2 sierpnia 2026 r., czyli po upływie dwóch lat.

Transparentność i generatywna AI

Jednym z kluczowych elementów AI Act jest wymóg transparentności. Oznacza to, że użytkownicy muszą być informowani, gdy mają do czynienia ze sztuczną inteligencją. Dotyczy to przede wszystkim generatywnej AI, która tworzy teksty, obrazy czy filmy. W praktyce oznacza to:

  • Obowiązek oznaczania treści generowanych przez AI.
  • Informowanie o interakcji z AI w chatbotach.

Zakazane praktyki

Niektóre przepisy AI Act wejdą w życie już wcześniej, bo od 2 lutego 2025 r. Dotyczy to tzw. praktyk zakazanych, które unijny ustawodawca uznał za niedopuszczalne. Oto niektóre z nich:

  • Techniki podprogowe wpływające na decyzje poza świadomością odbiorcy.
  • Wykorzystywanie słabości określonych grup odbiorców.
  • Klasyfikowanie osób za pomocą AI na potrzeby scoringu społecznego.
  • Nieuprawnione pozyskiwanie baz twarzy z internetu.
  • Analiza emocji w miejscach pracy lub edukacji.
  • Identyfikacja twarzy w czasie rzeczywistym do celów ścigania przestępstw (z pewnymi wyjątkami).

Sankcje za naruszenia

Od 2 lutego 2025 r. za stosowanie zakazanych praktyk grożą surowe kary, które mogą sięgać:

  • Do 35 mln euro lub 7% rocznego obrotu firmy za praktyki zakazane.
  • Do 15 mln euro lub 3% obrotu za inne naruszenia.

Modele ogólnego przeznaczenia

Regulacje dotyczące modeli AI ogólnego przeznaczenia, takich jak te używane w ChatGPT, wejdą w życie 2 sierpnia 2025 r. Nowe przepisy nakładają na dostawców obowiązki związane z:

  • Prowadzeniem dokumentacji dotyczącej trenowania i testowania modeli.
  • Udostępnianiem dokumentacji organom unijnym i krajowym.
  • Zapewnieniem informacji o możliwościach i ograniczeniach modeli dla podmiotów integrujących swoje systemy z AI.

Systemy wysokiego ryzyka

Systemy wysokiego ryzyka, które obejmują AI wykorzystywane w procesach rekrutacyjnych, ocenie wniosków o świadczenia państwowe czy zarządzaniu infrastrukturą krytyczną, będą podlegały pełnym regulacjom dopiero od 2 sierpnia 2027 r. Wymogi te obejmują m.in.:

  • Gwarantowanie nadzoru człowieka nad AI.
  • Zapewnienie dokładności i cyberbezpieczeństwa AI.

Dla systemów wprowadzonych przed 2 sierpnia 2026 r., wymogi te będą obowiązywać od 2 sierpnia 2030 r.

Przygotujmy się na nadchodzące zmiany i pamiętajmy, że przestrzeganie tych regulacji jest kluczowe dla zaufania i bezpieczeństwa użytkowników sztucznej inteligencji.


Masz pytanie? Zapraszam do dyskusji

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Radca Prawny Alicja Berger-Lach Kancelaria e-commerce it

Nazywam się Alicja Berger-Lach i jestem Radcą Prawnym. W zawodzie prawnika pracuję od 2008 roku, zaś w branży IT działam od 2015 roku.

Specjalizuję się w prawie gospodarczym i prawie pracy, a także w szeroko pojętych aspektach prawnych związanych z nowymi technologiami, Internetem i E-commerce.