AI a RODO — jak zachować zgodność?

RODO i sztuczna inteligencja — to połączenie spędza sen z powiek wielu polskim przedsiębiorcom. Czy wdrożenie AI oznacza naruszenie RODO? Czy dane klientów można przetwarzać w ChatGPT? Jak przeprowadzić DPIA dla systemu AI? Czy AI Act zmienia cokolwiek w kontekście RODO?

Ten artykuł odpowiada na te pytania jasno i praktycznie. Bez prawniczego żargonu, z konkretnymi rekomendacjami, checklistami i przykładami z polskiego rynku. Dowiesz się, jak legalnie i bezpiecznie wdrożyć AI z poszanowaniem praw osób, których dane przetwarzasz.

RODO a AI — podstawy prawne przetwarzania danych w systemach AI

RODO nie zabrania korzystania z AI — wymaga spełnienia określonych warunków. Kluczowy jest art. 6 RODO określający podstawy prawne przetwarzania danych osobowych. Dla AI w firmie najczęstsze to: zgoda (art. 6.1.a), wykonanie umowy (art. 6.1.b) i uzasadniony interes (art. 6.1.f).

Uzasadniony interes (art. 6.1.f) to najczęstsza podstawa dla AI w biznesie — np. analiza danych klientów w celu personalizacji oferty. Wymaga jednak testu równowagi: interes firmy vs. prawa osoby. Jeśli AI podejmuje decyzje istotnie wpływające na osobę (odmowa kredytu, wynik rekrutacji) — stosuje się art. 22.

Artykuł 22 RODO — zautomatyzowane podejmowanie decyzji

Art. 22 RODO to kluczowy przepis dla AI — dotyczy 'zautomatyzowanego podejmowania decyzji, w tym profilowania, które wywołuje skutki prawne lub istotnie wpływa na osobę'. Osoba ma prawo: nie podlegać takiej decyzji, uzyskać interwencję ludzką, wyrazić stanowisko i zakwestionować decyzję.

Kiedy art. 22 ma zastosowanie? Automatyczna odmowa kredytu (scoring AI), automatyczna rezygnacja z kandydata w rekrutacji (AI screening), automatyczna zmiana warunków umowy. Kiedy NIE ma zastosowania? ChatGPT do generowania treści, chatbot AI obsługujący pytania, AI analiza danych anonimowych.

DPIA dla systemów AI — kiedy i jak przeprowadzić?

DPIA (Data Protection Impact Assessment) — ocena skutków dla ochrony danych — jest wymagana, gdy przetwarzanie może powodować wysokie ryzyko. Dla systemów AI DPIA jest praktycznie zawsze wymagana, gdy przetwarzane są dane osobowe na dużą skalę lub z profilowaniem.

Jak przeprowadzić DPIA dla AI: 1) Opisz przetwarzanie (jakie dane, cel, technologia). 2) Oceń konieczność i proporcjonalność. 3) Zidentyfikuj ryzyka (wyciek, bias, błędne decyzje). 4) Określ środki minimalizujące ryzyka. 5) Dokumentuj wnioski. Wzory DPIA dostępne na stronie UODO.

Dane osobowe w ChatGPT i innych LLM — co wolno?

Przetwarzanie danych osobowych w LLM (ChatGPT, Claude, Gemini) to gorący temat. Kluczowe pytania: czy dane klientów mogą trafiać do ChatGPT? Czy pracownicy mogą wklejać e-maile z danymi osobowymi?

Odpowiedź zależy od wersji: ChatGPT Free/Plus — dane mogą być wykorzystane do trenowania, NIE przesyłaj danych osobowych. ChatGPT Team/Enterprise — dane nie są używane do trenowania, ale wymagana jest DPIA, umowa powierzenia (DPA z OpenAI) i informacja dla osób. Self-hosted LLM (Llama) — pełna kontrola, najwyższy poziom bezpieczeństwa RODO.

Obowiązki informacyjne — jak informować o AI?

RODO wymaga transparentności — osoby, których dane przetwarzasz, muszą wiedzieć o użyciu AI. Art. 13/14 RODO nakazuje informowanie o: kategoriach danych, celu przetwarzania, odbiorcach (w tym dostawcach AI), prawach osoby.

W praktyce: zaktualizuj politykę prywatności o informacje o AI, informuj klientów o profilowaniu i zautomatyzowanych decyzjach, chatboty muszą informować o interakcji z AI (wymóg AI Act). Szczegóły na stronie AI a prawo.

Prawo do wyjaśnienia — jak tłumaczyć decyzje AI?

RODO (art. 22.3, motywy 60, 71) przyznaje prawo do 'istotnych informacji o logice' zautomatyzowanego podejmowania decyzji. W praktyce: jeśli AI odmawia klientowi kredytu, klient ma prawo wiedzieć dlaczego.

Wyzwanie: modele AI (deep learning, LLM) to 'czarne skrzynki' — trudne do wyjaśnienia. Rozwiązania: XAI (Explainable AI), SHAP values, LIME — techniki 'odczarowania' modeli AI, dostarczające wyjaśnień zrozumiałych dla człowieka.

Transfer danych poza UE — AI w chmurze a RODO

Korzystanie z AI w chmurze (OpenAI, Google, AWS) często oznacza transfer danych poza UE. RODO wymaga odpowiednich zabezpieczeń: decyzja adekwatności (USA — EU-US Data Privacy Framework), standardowe klauzule umowne (SCC) lub wiążące reguły korporacyjne (BCR).

Dla USA: od 2023 obowiązuje EU-US Data Privacy Framework — transfer legalny pod warunkiem certyfikacji dostawcy. OpenAI, Google, Microsoft są certyfikowane. Dla innych krajów: SCC + ocena transferowa (TIA). Więcej o bezpieczeństwie na stronie bezpieczeństwo danych w AI.

Checklist RODO dla wdrożenia AI w firmie

Poniższy checklist pomoże Ci zapewnić zgodność wdrożenia AI z RODO. Traktuj go jako minimum — dla złożonych wdrożeń rekomendujemy konsultację z prawnikiem RODO.

Finito Pro wspiera polskie firmy w zapewnieniu zgodności AI z RODO — od DPIA, przez polityki bezpieczeństwa, po szkolenia zespołu.

UODO i AI — stanowisko polskiego regulatora

Urząd Ochrony Danych Osobowych (UODO) wydał wytyczne dotyczące AI i RODO, podkreślając: obowiązek DPIA dla systemów AI z profilowaniem, wymóg transparentności, konieczność nadzoru ludzkiego i prawo do sprzeciwu wobec profilowania.

UODO monitoruje stosowanie AI przez polskie firmy i może przeprowadzać kontrole. Dotychczas brak było istotnych kar za naruszenia związane z AI, ale trend europejski (włoskie zawieszenie ChatGPT w 2023) pokazuje rosnącą aktywność regulatorów.

Najczęstsze pytania

Tak, pod warunkiem: używasz wersji Team/Enterprise (nie Free), masz DPA z OpenAI, nie przesyłasz nadmiarowych danych osobowych, informujesz osoby o przetwarzaniu, przeprowadziłeś DPIA (jeśli wymagana). Dla danych publicznych i anonimowych ograniczenia RODO nie mają zastosowania.

Tak — RODO wymaga transparentności o zautomatyzowanym przetwarzaniu. AI Act dodatkowo wymaga informowania o interakcji z chatbotem AI. W praktyce: zaktualizuj politykę prywatności, chatbot powinien informować 'Jestem asystentem AI', a decyzje zautomatyzowane wymagają informacji o logice.

Tak, jeśli przetwarzasz dane osobowe — DPA (Data Processing Agreement) jest wymagana przez art. 28 RODO. OpenAI, Anthropic i Google oferują DPA dla klientów biznesowych. Podpisanie DPA jest warunkiem koniecznym legalnego przetwarzania danych osobowych w LLM.

DPIA dla ChatGPT obejmuje: opis przetwarzania (jakie dane, cel, skala), ocenę ryzyk (wyciek, halucynacje, transfer poza UE), środki minimalizujące (DPA, polityka użycia, szkolenia, wersja Enterprise) i wnioski z regularnymi przeglądami. Wzór DPIA jest dostępny na stronie UODO.