O tym, co tak naprawdę zmienia AI Act w polskim e-commerce i jak szybko nadgonić ewentualne zaległości, by sklep internetowy zgodnie z prawem korzystał ze sztucznej inteligencji, rozmawiamy z Wojciechem Wawrzakiem, radcą prawnym i twórcą bloga praKreacja.pl.

Agata Blachowska: 2 sierpnia 2026 r. zaczynają obowiązywać przepisy AI Act. Jakie nowe obowiązki nakłada na sprzedawców internetowych? 

Wojciech Wawrzak: AI Act to nie rewolucja dla e-commerce. Większość obowiązków, o których mówi się w kontekście „nowych regulacji AI", istnieje od lat - w RODO, Ustawie o prawach konsumenta i przepisach o nieuczciwych praktykach rynkowych. UOKiK przyglądał się chatbotom i algorytmom już w 2023 r., stosując właśnie te istniejące przepisy.

Co jest naprawdę nowe z AI Act (od 2 sierpnia 2026 r.):

  1. Obowiązek informowania o interakcji z AI - jeśli sklep jest „dostawcą" chatbota (np. zlecił jego stworzenie pod swoją marką), musi informować klientów, że rozmawiają z AI. Przy gotowych rozwiązaniach formalnie obowiązek spoczywa na dostawcy narzędzia, ale dobrą praktyką i tak jest informowanie przez sklep. 

Po pierwsze, można błędnie ocenić swoją rolę (granica „dostawca" vs „podmiot stosujący" nie zawsze jest oczywista). 

Po drugie, informacja „Rozmawiasz z AI" buduje zaufanie klientów i nic nie kosztuje. UOKiK już teraz wymaga od chatbotów tych samych standardów rzetelności co od obsługi przez człowieka.

  1. Obowiązek oznaczania deepfake'ów - ale definicja jest węższa, niż mogłoby się wydawać. Deepfake w rozumieniu AI Act wymaga trzech przesłanek łącznie: 1. obraz/dźwięk/wideo wygenerowane lub zmanipulowane przez AI, 2. przypominające istniejące osoby, przedmioty, miejsca lub zdarzenia, 3. które odbiorca mógłby niesłusznie uznać za autentyczne. Kluczowa jest ta trzecia przesłanka: prowadzenie w błąd co do treści, nie co do techniki wykonania.

Co to oznacza dla e-commerce? Grafika produktowa wygenerowana przez AI, która wiernie oddaje rzeczywisty produkt, prawdopodobnie nie jest deepfake'iem, bo nie wprowadza w błąd (produkt wygląda tak jak na grafice). Natomiast wirtualna modelka prezentująca produkt to już deepfake - odbiorca może mylnie uznać ją za prawdziwą osobę.

Uwaga: to, że grafika produktowa nie wymaga oznaczenia z AI Act, nie znaczy, że jest bezpieczna. Jeśli AI „upiększa" produkt ponad rzeczywistość, ryzyko leży gdzie indziej: reklamacja z niezgodności towaru z umową (Ustawa o prawach konsumenta) lub zarzut wprowadzania w błąd (Ustawa o nieuczciwych praktykach rynkowych). Te przepisy obowiązują od lat.

Obowiązek oznaczania tekstów AI „w interesie publicznym" - dotyczy treści informacyjnych (np. blog o zmianach prawnych w branży), ale nie opisów produktów.

ecomm-ai-tpay

Co nie jest nowe, bo wynika z przepisów obowiązujących od lat?

Weźmy kilka przykładów „nowych obowiązków", o których piszą media. Informacja o profilowaniu? RODO wymaga jej od 2018 r. Prawo klienta do interwencji ludzkiej przy decyzjach automatycznych? Też RODO, też 2018 r. Obowiązek udostępnienia e-maila i telefonu, gdzie chatbot może być tylko dodatkiem? Ustawa o prawach konsumenta - od 2014 r., z uszczelnieniem w 2023 r.. Informacja o personalizacji cen? Ta sama Ustawa, od 2023 r. Zakaz wprowadzania w błąd przez algorytmy? Ustawa o nieuczciwych praktykach rynkowych - od 2007 r., czyli prawie dwie dekady.

Podsumowując, AI Act dodaje kilka konkretnych obowiązków (informacja o chatbocie, oznaczanie deepfake'ów, teksty informacyjne AI), ale dla typowego sklepu internetowego zmienia się niewiele. Kto stosował dobre praktyki na podstawie RODO i prawa konsumenckiego, ma już większość roboty zrobionej.

Czy coś należy dodać do regulaminu sklepu i/lub polityki prywatności?

Z samego AI Act nic. AI Act nie wymaga zmian w regulaminie ani polityce prywatności. Informacje wymagane przez AI Act (np. o chatbocie) mają być przekazywane w momencie interakcji, nie w dokumentach prawnych.

Przy okazji warto sprawdzić, czy dokumenty są zgodne z innymi przepisami.

W polityce prywatności powinny znajdować się następujące informacje:

  • informacja o profilowaniu - jeśli sklep analizuje zachowania klientów lub stosuje algorytmy rekomendacji (RODO wymaga tego od 2018 r.),
  • informacja o zautomatyzowanym podejmowaniu decyzji - jeśli algorytmy podejmują decyzje wpływające na klientów.

Przed zakupem konsument powinien mieć również informację o personalizacji cen - jeśli różni klienci widzą różne ceny za ten sam produkt (Ustawa o prawach konsumenta wymaga tego od 2023 r.)

Jeśli sklep ma to w dokumentach - nie musi nic zmieniać. Jeśli nie ma, a stosuje te mechanizmy - warto uzupełnić. To nie jest jednak nowy obowiązek z AI Act, tylko istniejące wymagania.

ai-tpay-zmiany

Czy jeśli opis produktu został przygotowany przez człowieka, ale poprawiony stylistycznie przez AI, to również podlega pod obowiązek informacyjny?

Nie. AI Act wprost wyłącza z obowiązku oznaczania sytuacje, gdy AI „pełni funkcję wspomagającą w zakresie standardowej edycji lub nie zmienia w istotny sposób treści".

Oznaczania nie wymagają:

  • korekta gramatyczna i ortograficzna;
  • poprawki stylistyczne;
  • tłumaczenie na inny język;
  • skracanie, formatowanie, ulepszanie czytelności tekstu.

Narzędzia typu Grammarly czy asystent pisania nie tworzą nowej treści, tylko poprawiają istniejącą. To trochę tak, jakby prawnikowi kazać ujawniać, że korzysta z autokorekty w Wordzie.

A co gdy AI napisał cały opis od zera?

Nawet wtedy nie ma automatycznego obowiązku oznaczania. Opisy produktów nie są „tekstami publikowanymi w interesie publicznym", a tylko takie teksty AI Act nakazuje oznaczać. Dodatkowo, jeśli człowiek zweryfikował i zatwierdził treść, wyjątek dotyczący „kontroli redakcyjnej" również ma zastosowanie.

Jakie konkretnie sformułowania w języku polskim będą uznawane za wystarczające? np. „Wygenerowano przez AI”, „Treść wspomagana sztuczną inteligencją”?

AI Act nie narzuca konkretnych słów. Wymaga, by informacja była „jasna i wyraźna", czyli żeby przeciętny klient od razu zrozumiał, że ma do czynienia z AI, a nie z człowiekiem.

Sprawdzone sformułowania dla chatbota to np.:

  • „Rozmawiasz z asystentem AI"
  • „Jestem wirtualnym asystentem"
  • „Ten czat obsługuje sztuczna inteligencja"
  • „Cześć! Jestem botem. W czym mogę pomóc?"

Sprawdzone sformułowania dla grafik (gdy wymagane) to np.:

  • “Grafika wygenerowana przez AI"
  • „Obraz utworzony przez sztuczną inteligencję"
  • „Wirtualny model"

Czego lepiej unikać:

  • „Wspomagane algorytmicznie" - zbyt techniczne, niejasne
  • „Z wykorzystaniem zaawansowanych technologii" - nie mówi, że to AI
  • Informacji ukrytej drobnym drukiem - musi być widoczna od razu.

Kluczowe: przeciętny klient, nie prawnik ani informatyk, ma od razu wiedzieć, że rozmawia z maszyną, nie z człowiekiem.

artykul-ai-tpay

Jakie są wymogi techniczne dotyczące "etykietowania" - czy trzeba dodawać metadane do plików graficznych?

Sklepy nie muszą dodawać metadanych do plików.

Obowiązek techniczny (oznaczanie w formacie „nadającym się do odczytu maszynowego" - metadane, znaki wodne, fingerprints) ciąży na twórcy narzędzia AI, np. OpenAI, Midjourney, Adobe Firefly. To oni mają zapewnić, że wygenerowane pliki zawierają techniczne oznaczenia.

Obowiązek sklepu (jeśli używa deepfake'ów/wirtualnych modeli) to widoczna etykieta dla klienta. Czyli np. tekst przy grafice: „Obraz wygenerowany przez AI". Sklep nie musi edytować metadanych pliku - wystarczy widoczna informacja na stronie.

Czy oznaczenie musi znajdować się bezpośrednio na grafice/przy opisie, czy dopuszczalne jest zbiorcze poinformowanie w stopce strony lub regulaminie?

Bezpośrednio przy treści, informacja w regulaminie nie wystarczy.

AI Act wymaga informacji „najpóźniej w momencie pierwszej interakcji lub pierwszego stosowania". Komentatorzy jednoznacznie wskazują: informowanie w sposób ogólny (np. w regulaminie) nie spełnia tego wymogu, bo nie gwarantuje, że konkretna osoba zobaczy informację w odpowiednim momencie.

Dobrze:

  • etykieta pod grafiką: „Obraz wygenerowany przez AI"
  • komunikat powitalny chatbota: „Jestem wirtualnym asystentem"
  • oznaczenie widoczne przez cały czas interakcji.

Źle:

  • informacja ukryta w regulaminie
  • zbiorcze oświadczenie w stopce strony („Na tej stronie używamy AI")
  • link do FAQ z wyjaśnieniami.

Wyjątek: treści artystyczne mogą mieć oznaczenie „w sposób nie utrudniający korzystania z utworu" (np. w napisach końcowych filmu). Sklep internetowy jednak raczej nie publikuje dzieł artystycznych.

W którym momencie rozmowy klient musi zostać poinformowany, że rozmawia z botem? Czy ten komunikat musi być widoczny przed wysłaniem pierwszej wiadomości przez klienta?

Na samym początku - gdy klient otwiera czat lub gdy chatbot się odzywa. AI Act mówi, że „najpóźniej w momencie pierwszej interakcji". 

W praktyce oznacza to:

  • pierwsza wiadomość chatbota zawiera informację: „Cześć! Jestem wirtualnym asystentem. W czym mogę pomóc?"
  • lub: widoczna etykieta przy oknie czatu przez cały czas rozmowy (np. „Rozmawiasz z AI")
  • lub: komunikat pojawia się, gdy klient otwiera okno czatu, zanim zacznie pisać.

Nie wystarczy informacja schowana w regulaminie czy FAQ. Klient ma wiedzieć od razu, z kim rozmawia.

Czy komunikat musi być przed pierwszą wiadomością klienta? Nie musi być przed - może być w momencie rozpoczęcia rozmowy. AI Act mówi „najpóźniej w momencie pierwszej interakcji", nie „przed pierwszą interakcją". Wystarczy, że klient widzi informację, gdy otwiera okno czatu lub gdy chatbot wysyła pierwszą wiadomość powitalną. Nie trzeba wymuszać dodatkowego kliknięcia typu „Rozumiem, że to AI - kontynuuj".

sztuczna-inteligencja-tpayJakie informacje o działaniu algorytmu trzeba udostępnić klientowi, jeśli chatbot doradza mu w wyborze produktu (np. sugeruje rozmiar na podstawie danych)?

Wystarczy informacja, że to AI. Sklep nie musi wyjaśniać, jak działa algorytm, na jakich danych się uczy ani jak generuje odpowiedzi.

Uwaga: inne przepisy mogą wymagać więcej. Jeśli chatbot tylko odpowiada na pytania i doradza, wystarczy informacja z AI Act, że to AI. Jeśli jednak chatbot analizuje zachowania klienta (profilowanie), RODO wymaga informacji o tym w polityce prywatności. A jeśli chatbot samodzielnie podejmuje decyzje ze skutkami prawnymi, na przykład odmawia reklamacji lub decyduje o racie, RODO art. 22 daje klientowi prawo do interwencji ludzkiej, wyrażenia stanowiska i zakwestionowania decyzji.

Praktycznie dla typowego chatbota e-commerce:

  • jeśli chatbot tylko doradza i odpowiada na pytania (nie podejmuje wiążących decyzji) - wystarczy informacja „Jestem AI" i możliwość kontaktu z człowiekiem;
  • jeśli chatbot samodzielnie podejmuje decyzje wpływające na prawa klienta - sklep musi zapewnić możliwość odwołania się do człowieka. To jednak wynika z RODO, nie z AI Act.

Ważne: możliwość kontaktu z człowiekiem (e-mail, telefon) jest wymagana przez Ustawę o prawach konsumenta niezależnie od AI Act. Chatbot może być tylko dodatkiem do tych kanałów, nie ich zamiennikiem.

Jakie organy będą odpowiedzialne za nadzór nad AI Act w handlu i jakie kary grożą np. za brak "etykiety AI" przy opisie produktu?

Kary określone w AI Act są wysokie, przynajmniej na papierze. 

  • Za brak informacji o chatbocie AI lub nieoznaczony deepfake grozi do 15 mln EUR lub 3% rocznego światowego obrotu - w zależności, która kwota jest wyższa. 
  • Za zakazane praktyki AI (manipulacja, scoring społeczny, wykorzystywanie słabości) - do 35 mln EUR lub 7% obrotu. 
  • Za podanie nieprawidłowych informacji organom - do 7,5 mln EUR lub 1% obrotu. Dla małych i średnich firm kary są proporcjonalnie niższe - nie mogą przekroczyć niższej z tych kwot.

Przy ustalaniu kary organ bierze pod uwagę: charakter i wagę naruszenia, wielkość firmy, stopień współpracy, czy naruszenie było umyślne, jakie działania naprawcze podjęto.

Kto będzie kontrolował w Polsce? Polska ustawa wdrażająca AI Act jest nadal w toku - nie rozstrzygnięto jeszcze kwestii organu nadzoru. Na dziś dedykowany organ AI Act w Polsce nie istnieje.

Co to oznacza w praktyce?

AI Act jako rozporządzenie UE obowiązuje bezpośrednio, ale egzekwowanie kar w Polsce czeka na przyjęcie ustawy krajowej. 

Do tego czasu:

  • UOKiK może stosować przepisy o ochronie konsumentów i nieuczciwych praktykach rynkowych - już teraz przygląda się chatbotom
  • UODO może stosować RODO wobec naruszeń związanych z AI
  • organy branżowe (KNF, UKE) mogą stosować regulacje sektorowe.

Kluczowy cytat UOKiK: „Samo użycie sztucznej inteligencji nie stanowi naruszenia praw konsumentów" - problem pojawia się, gdy AI wprowadza w błąd, utrudnia kontakt z człowiekiem lub nie spełnia standardów rzetelności. A to narusza istniejące przepisy, nie tylko AI Act.

Dziękuję za rozmowę!

Wojciech-Wawrza

Wojciech Wawrzak - radca prawny specjalizujący się m.in. w obsłudze prawnej e-commerce. Autor bloga praKreacja.pl i założyciel specjalistycznej kancelarii prawnej praKreacja.legal.