Twój koszyk jest obecnie pusty!
Alicja Berger-Lach
Alicja Berger-Lach
Z własnego doświadczenia mogę powiedzieć, że nie ma dziś branży, w której nie rozważa się potencjału sztucznej inteligencji. Rosnąca popularność generowania tekstu, analizy danych czy tworzenia kreatywnych projektów za pomocą AI stawia jednak ważne pytanie: czy te działania nie zagrażają poufności informacji firmowych? Wiele podmiotów z sektora IT i poza nim zastanawia się, w jakim stopniu należy chronić dane, aby nie doszło do niekontrolowanego wycieku.
W pierwszej kolejności warto zauważyć, że korzystanie z rozwiązań AI jest zazwyczaj łatwe i intuicyjne. Można wprowadzać obszerne opisy procesów, wewnętrzne dane analityczne lub szczegółowe opisy projektów. Można też nie zdawać sobie sprawy, że wszystkie te dane bywają przechowywane i przetwarzane na serwerach dostawcy narzędzia. Może dojść do ich dalszego wykorzystania, na przykład do ulepszania algorytmów lub do udostępnienia w formie statystyk.
W praktyce oznacza to, że zachodzi ryzyko przekazania poufnych informacji osobom trzecim. Ważne jest także, aby pamiętać, że przetwarzanie danych przez algorytmy może nie być w pełni transparentne dla użytkownika. Z tego względu w umowach z dostawcami AI powinno się doprecyzowywać zakres odpowiedzialności za potencjalne nadużycia.
Zastrzeżenia usługodawcy platformy ChatGPT wskazują, że operator narzędzia może wykorzystywać wszystkie przesyłane informacje do rozwoju i ulepszania własnych usług. Dotyczy to zarówno tekstów wprowadzanych przez użytkownika (tzw. input), jak i wygenerowanych wyników (output). Może więc zdarzyć się, że opis procesu biznesowego zostanie przeanalizowany przez personel dostawcy, a jego fragmenty pojawią się w odpowiedzi dla innego przedsiębiorstwa.
Możliwy jest też scenariusz, w którym poufne informacje klienta zostaną udostępnione szerokiemu gronu współpracowników usługodawcy. Jeśli przedsiębiorca nie zadba wcześniej o wyraźne ograniczenia i właściwe klauzule, może dojść do naruszenia zobowiązań umownych lub łamania przepisów dotyczących ochrony tajemnicy przedsiębiorstwa.
Tajemnica przedsiębiorstwa chroni informacje, które nie są powszechnie dostępne i mają wartość gospodarczą. Pojawia się ona w umowach o zachowaniu poufności i wynika z przepisów prawa (np. art. 11 ust. 4 ustawy o zwalczaniu nieuczciwej konkurencji). Jeżeli firma przekazuje narzędziom AI poufne dane bez odpowiedniego zabezpieczenia, może dojść do nieuprawnionego ich wykorzystania. Kluczowe jest także, by pamiętać o konieczności respektowania RODO, jeśli dane dotyczą osób fizycznych.
W związku z powyższym warto jest przygotować zestaw wewnętrznych procedur obejmujących korzystanie z zewnętrznych narzędzi AI. W szczególności:
Dzięki tym działaniom łatwiej uniknąć niepotrzebnego ryzyka i ograniczyć możliwość wystąpienia sporu. Może się to okazać szczególnie ważne, kiedy w grę wchodzi budowanie długotrwałego zaufania klientów. Sztuczna inteligencja potrafi usprawnić działanie firmy, ale musi być stosowana świadomie, by nie prowadzić do przykrych konsekwencji prawnych i finansowych.
Przygotujmy się na nadchodzące zmiany i pamiętajmy, że przestrzeganie tych regulacji jest kluczowe dla zaufania i bezpieczeństwa użytkowników sztucznej inteligencji.
Nazywam się Alicja Berger-Lach i jestem Radcą Prawnym. W zawodzie prawnika pracuję od 2008 roku, zaś w branży IT działam od 2015 roku.
Specjalizuję się w prawie gospodarczym i prawie pracy, a także w szeroko pojętych aspektach prawnych związanych z nowymi technologiami, Internetem i E-commerce.
Dodaj komentarz